JP3820076B2 - Automatic focusing device, digital camera, portable information input device, focusing position detection method, and computer-readable recording medium - Google Patents

Automatic focusing device, digital camera, portable information input device, focusing position detection method, and computer-readable recording medium Download PDF

Info

Publication number
JP3820076B2
JP3820076B2 JP2000058838A JP2000058838A JP3820076B2 JP 3820076 B2 JP3820076 B2 JP 3820076B2 JP 2000058838 A JP2000058838 A JP 2000058838A JP 2000058838 A JP2000058838 A JP 2000058838A JP 3820076 B2 JP3820076 B2 JP 3820076B2
Authority
JP
Japan
Prior art keywords
focus position
lens system
subject
detecting
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000058838A
Other languages
Japanese (ja)
Other versions
JP2001249267A (en
Inventor
憲昭 尾島
純一 篠原
達敏 北島
彰宏 吉田
茂 入沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2000058838A priority Critical patent/JP3820076B2/en
Publication of JP2001249267A publication Critical patent/JP2001249267A/en
Application granted granted Critical
Publication of JP3820076B2 publication Critical patent/JP3820076B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Cameras In General (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、自動合焦装置、デジタルカメラ、携帯情報入力装置、合焦位置検出方法、およびコンピュータが読取可能な記録媒体に関し、詳細には、外部AFとCCD−AFで合焦位置の検出を行う自動合焦装置、デジタルカメラ、携帯情報入力装置、合焦位置検出方法、およびコンピュータが読取可能な記録媒体に関する。
【0002】
【従来の技術】
従来の電子スチルカメラのAF方式としては、CCD、もしくは、フォーカスレンズを光軸方向に駆動しながらCCDに蓄積される輝度信号によりピントのピークを見つけるCCD−AF方式か、若しくは、三角測量方式の自動焦点調節機構が単独で使用されている。
【0003】
【発明が解決しようとする課題】
しかしながら、上記CCD−AF方式は、図17に示すように、無限遠から最至近まで、CCDまたはフォーカスレンズを駆動して、ピントの山を見つける方式であるため、合焦位置を検出するまでに時間がかかるという問題がある。上述の問題を解決するために、図18(a)に示すように、粗サンプリングを無限遠から最至近まで行って概略の合焦位置を検出し、つづいて、図18(b)に示すように、概略の合焦位置近傍で細かいサンプリングを行って最終的な合焦位置を検出する方式も提案されている。かかる方式によれば、若干合焦位置の検出時間を短縮できるが、十分とは言えない。
【0004】
また、上述の三角測量方式では、至近距離側での測距のパララックスずれが発生しやすい。望遠側での性能が低いなどの問題がある。ところで、近時、ズームレンズを備えたデジタルカメラも普及している。一般に、AFの精度は焦点距離により必要とされる精度が異なる。
【0005】
本発明は、上記に鑑みてなされたものであり、ズームレンズ系を備えた自動合焦装置および合焦位置検出方法において、短時間でかつ正確な合焦位置を検出することが可能な自動合焦装置および合焦位置検出方法を提供することを目的とする。
【0006】
【課題を解決するための手段】
上述した課題を解決するために、請求項1にかかる発明は、被写体像を所定位置に結像する、フォーカスレンズ系およびズームレンズを含むレンズ系と、前記レンズ系を介して入力される被写体像を撮像して画像データを出力する撮像手段と、前記撮像手段を使用して、前記レンズ系を移動させて被写体のコントラストをサンプリングして合焦位置を検出する第1の合焦位置検出手段と、前記撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出して前記レンズ系の合焦位置を検出する第2の合焦位置検出手段と、前記第1の合焦位置検出手段および前記第2の合焦位置検出手段で検出された合焦位置に基づいて、最終的な合焦位置を決定する合焦位置決定手段と、を備え、前記合焦位置決定手段は、前記第1の合焦位置検出手段の被写体のコントラストを検出する際のサンプリング範囲を、全域より狭く、かつ前記第2の合焦位置検出手段によって検出された被写体との距離に相当するサンプリング位置の前後の範囲として、前記レンズ系の焦点距離に応じて、前記レンズ系がワイドの場合には狭く設定し、テレ側になるに従い広く設定するものである。
【0007】
上記発明によれば、フォーカスレンズ系およびズームレンズ系を含むレンズ系と、被写体像を所定位置に結像し、撮像手段はレンズ系を介して入力される被写体像を撮像して画像データを出力し、第1の合焦位置検出手段は撮像手段を使用して、レンズ系を移動させて被写体のコントラストをサンプリングして合焦位置を検出し、第2の合焦位置検出手段は撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出してレンズ系の合焦位置を検出し、合焦位置決定手段は第1の合焦位置検出手段および第2の合焦位置検出手段で検出された合焦位置に基づいて、最終的な合焦位置を決定し、第1の合焦位置検出手段の被写体のコントラストを検出する際のサンプリング範囲を、全域より狭く、かつ前記第2の合焦位置検出手段によって検出された被写体との距離に相当するサンプリング位置の前後の範囲として、前記レンズ系の焦点距離に応じて、前記レンズ系がワイドの場合には狭く設定し、テレ側になるに従い広く設定する。
【0008】
また、請求項2にかかる発明は、請求項1にかかる発明において、さらに、被写体のコントラストを検出するための前記撮像手段の受光画面内のエリアの大きさを、前記レンズ系がワイドの場合には大きく設定し、テレになるに従い小さく設定する。
【0009】
また、請求項3にかかる発明は、請求項にかかる発明において、さらに、被写体のコントラストを検出する際のサンプリング間隔を、前記レンズ系がワイドの場合には大きく設定し、テレになるに従い小さく設定する
【0015】
また、請求項にかかる発明は、請求項1〜請求項のいずれか1つにかかる発明において、前記合焦位置決定手段は、前記レンズ系の焦点距離に基づき、前記第1の合焦位置検出手段または前記第2の合焦位置検出手段の合焦結果を最終的な合焦位置と決定するものである。上記発明によれば、合焦位置決定手段は、レンズ系の焦点距離に基づき、第1の合焦位置検出手段または第2の合焦位置検出手段の合焦結果を最終的な合焦位置と決定する。
【0016】
また、請求項にかかる発明は、請求項にかかる発明において、前記合焦位置決定手段は、前記レンズ系がワイドの場合には、前記第1の合焦位置検出手段および前記第2の合焦位置検出手段で検出された合焦位置のうち、当該合焦位置に対応する被写体距離が近い方を最終の合焦位置と決定するものである。上記発明によれば、合焦位置決定手段は、レンズ系がワイドの場合には、第1の合焦位置検出手段および第2の合焦位置検出手段で検出された合焦位置のうち、当該合焦位置に対応する被写体距離が近い方を最終の合焦位置と決定する。
【0017】
また、請求項にかかる発明は、請求項にかかる発明において、前記合焦位置決定手段は、前記レンズ系がテレの場合には、前記第1の合焦位置検出手段で検出された合焦位置を最終の合焦位置と決定するものである。上記発明によれば、合焦位置決定手段は、レンズ系がテレの場合には、第1の合焦位置検出手段で検出された合焦位置を最終の合焦位置と決定する。
【0019】
また、請求項にかかる発明は、請求項1〜6のいずれか1つにかかる発明において、合焦動作の動作を指示するための合焦動作操作部材の操作に先行して、所定の時間間隔で前記第2の合焦位置検出手段は被写体との距離を測距する測距処理を実行し、前記合焦動作操作部材が操作された場合には、前記第1の合焦位置検出手段は、前記第2の合焦位置検出手段で検出された合焦位置を前記基準位置として合焦位置を検出する動作を実行するものである。上記発明によれば、合焦動作の動作を指示するための合焦動作操作部材の操作に先行して、所定の時間間隔で第2の合焦位置検出手段は被写体との距離を測距する測距処理を実行し、合焦動作操作部材が操作された場合には、第1の合焦位置検出手段は、第2の合焦位置検出手段で検出された被写体との距離に相当するサンプリング位置の前後の範囲をサンプリング範囲として合焦位置を検出する動作を実行する。
【0020】
また、請求項にかかる発明は、請求項1〜請求項のいずれか1つにかかる発明を適用したものである。上記発明によれば、請求項1〜請求項のいずれか1つにかかる自動合焦装置をデジタルカメラに適用した。
【0021】
また、請求項にかかる発明は、請求項1〜請求項のいずれか1つにかかる発明を適用したものである。上記発明によれば、請求項1〜請求項のいずれか1つにかかる自動合焦装置を携帯情報入力装置に適用した。
【0022】
また、請求項10にかかる発明は、フォーカスレンズ系およびズームレンズ系を含むレンズ系の被写体に対する合焦位置を検出する合焦位置検出方法において、撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出して前記レンズ系の合焦位置を検出する第1の工程と、前記撮像手段を使用して、前記レンズ系を移動させて被写体のコントラストをサンプリングして合焦位置の検出を行う第2の工程と、前記第1の工程とおよび前記第2の工程で検出された合焦位置に基づいて、最終的な合焦位置を決定する第3の工程と、を含み、前記第3の工程は、前記第2の工程による被写体のコントラストを検出する際のサンプリング範囲を、全域より狭く、かつ前記第1の工程によって検出された被写体との距離に相当するサンプリング位置の前後の範囲として、前記レンズ系の焦点距離に応じて、前記レンズ系がワイドの場合には狭く設定し、テレになるに従い広く設定するものである。
【0023】
上記発明によれば、第1の工程では、撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出してレンズ系の合焦位置を検出し、第2の工程では、撮像手段を使用して、レンズ系を移動させて被写体のコントラストをサンプリングして合焦位置の検出を行い、第3の工程では、第1の工程とおよび第2の工程で検出された合焦位置に基づいて、最終的な合焦位置を決定し、第2の工程による被写体のコントラストを検出する際のサンプリング範囲を、全域より狭く、かつ前記第1の工程によって検出された被写体との距離に相当するサンプリング位置の前後の範囲として、前記レンズ系の焦点距離に応じて、前記レンズ系がワイドの場合には狭く設定し、テレになるに従い広く設定する。
【0024】
また、請求項11にかかる発明は、請求項10にかかる発明において、さらに、被写体のコントラストを検出するための前記撮像手段の受光画面内のエリアの大きさを、前記レンズ系がワイドの場合には大きく設定し、テレになるに従い小さく設定する。
【0025】
また、請求項12にかかる発明は、請求項10にかかる発明において、さらに、被写体のコントラストを検出する際の、サンプリング間隔を、前記レンズ系がワイドの場合には大きく設定し、テレになるに従い小さく設定する。
【0026】
また、請求項13にかかる発明は、請求項11〜請求項12のいずれか1つに記載の合焦位置検出方法においいぇ、前記第3の工程では、前記レンズ系の焦点距離に基づき、前記第1の工程または前記第2の工程で検出された合焦結果を最終的な合焦位置と決定することを特徴とする。
【0032】
また、請求項14にかかる発明は、請求項13にかかる発明において、前記第3の工程では、前記レンズ系がワイドの場合には、前記第1の工程および前記第2の工程で検出された合焦位置のうち、当該合焦位置に対応する被写体距離が近い方を最終の合焦位置と決定することとした。上記発明によれば、第3の工程では、レンズ系がワイドの場合には、第1の工程および第2の工程で検出された合焦位置のうち、当該合焦位置に対応する被写体距離が近い方を最終の合焦位置と決定する。
【0033】
また、請求項15にかかる発明は、請求項13にかかる発明において、前記第3の工程では、前記レンズ系がテレの場合には、前記第2の工程で検出された合焦位置を最終の合焦位置と決定することとした。上記発明によれば、第3の工程では、レンズ系がテレの場合には、第2の工程で検出された合焦位置を最終の合焦位置と決定する。
【0035】
また、請求項16にかかる発明は、フォーカスレンズ系を含むレンズ系の被写体に対する合焦位置を検出する合焦位置検出方法において、合焦動作を指示するための合焦動作操作部材の操作に先行して、所定の時間間隔で撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出する第1の工程と、前記合焦動作操作部材が操作された場合には、前記第1の工程の測距結果を使用して基準位置を算出するとともに、写体のコントラストを検出する際のサンプリング範囲を、全域より狭く、かつ前記第1の工程によって検出された被写体との距離に相当するサンプリング位置の前後の範囲として、前記レンズ系の焦点距離に応じて、前記レンズ系がワイドの場合には狭く設定し、テレになるに従い広く設定する第2の工程と、前記撮像手段を使用して、前記第2の工程で算出された基準位置の近傍で、前記レンズ系を移動させて前記設定されたサンプリング範囲で合焦位置の検出を行う第3の工程と、前記光電変換手段を使用して、被写体との距離を検出して前記レンズ系の合焦位置を検出する第4の工程と、前記第3の工程および前記第4の工程で検出された合焦位置に基づいて、最終的な合焦位置を決定する第5の工程と、を含み、前記第3の工程と前記第4の工程とを略同時に実行するものである。
【0036】
上記発明によれば、第1の工程では、合焦動作を指示するための合焦動作操作部材の操作に先行して、所定の時間間隔で撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出し、第2の工程では、合焦動作操作部材が操作された場合には、前記第1の工程の測距結果を使用して基準位置を算出するとともに、被写体のコントラストを検出する際のサンプリング範囲を、全域より狭く、かつ前記第1の工程によって検出された被写体との距離に相当するサンプリング位置の前後の範囲として、前記レンズ系の焦点距離に応じて、前記レンズ系がワイドの場合には狭く設定し、テレになるに従い広く設定し、第3の工程では、撮像手段を使用して、第2の工程で算出された基準位置の近傍で、レンズ系を移動させて設定されたサンプリング範囲で合焦位置の検出を行い、第4の工程では、光電変換手段を使用して、被写体との距離を検出してレンズ系の合焦位置を検出し、第5の工程では、第3の工程および第4の工程で検出された合焦位置に基づいて、最終的な合焦位置を決定し、第3の工程と第4の工程とを略同時に実行する。
【0037】
また、請求項17にかかる発明は、請求項11〜請求項16のいずれか1つに記載の発明の各工程をコンピュータに実行させるためのプログラムが記録されているものである。上記発明によれば、コンピュータで記録媒体に記録されているプログラムを実行することにより、請求項11〜請求項16のいずれか1つに記載の発明の各工程を実現する。
【0038】
【発明の実施の形態】
以下に添付図面を参照して、この発明にかかる自動合焦装置、デジタルカメラ、携帯情報入力装置、合焦位置検出方法、およびコンピュータが読取可能な記録媒体の好適な実施の形態を詳細に説明する。
【0039】
図1は、本発明にかかる自動合焦装置および合焦位置検出方法を適用したデジタルカメラの構成図である。同図において、100はデジタルカメラを示しており、デジタルカメラ100は、レンズ系101、絞り・フィルター部等を含むメカ機構102、CCD103、CDS回路104、可変利得増幅器(AGCアンプ)105、A/D変換器106、IPP107、DCT108、コーダー109、MCC110、DRAM111、PCカードインタフェース112、CPU121、表示部122、操作部123、SG(制御信号生成)部126、ストロボ装置127、バッテリ128、DC−DCコンバータ129、EEPROM130、フォーカスドライバ131、パルスモータ132、ズームドライバ133、パルスモータ134、モータドライバ135、外部AFセンサー136を具備して構成されている。また、PCカードインタフェース112を介して着脱可能なPCカード150が接続されている。
【0040】
レンズユニットは、レンズ101系、絞り・フィルター部等を含むメカ機構102からなり、メカ機構102のメカニカルシャッタは2つのフィールドの同時露光を行う。レンズ系101は、例えば、バリフォーカルレンズからなり、フォーカスレンズ系101aとズームレンズ系101bとで構成されている。
【0041】
フォーカスドライバ131は、CPU121から供給される制御信号に従って、パルスモータ132を駆動して、フォーカスレンズ系101aを光軸方向に移動させる。ズームドライバ133は、CPU121から供給される制御信号に従って、パルスモータ134を駆動して、ズームレンズ系101bを光軸方向に移動させる。また、モータドライバ135は、CPU121から供給される制御信号に従ってメカ機構102を駆動し、例えば、絞りの絞り値を設定する。
【0042】
図2は、パルスモータ134のパルス数Zp(モータ等分18分割)とズームレンズ系101bのレンズ繰り出し量(mm)の関係の一例を示す図である。図3は、ズーム位置がWide〜Teleの場合の撮影距離(1/L)とズームレンズ系101bのレンズ繰り出し量(mm)の関係の一例を示す図である。
【0043】
CCD(電荷結合素子)103は、レンズユニットを介して入力した映像を電気信号(アナログ画像データ)に変換する。CDS(相関2重サンプリング)回路104は、CCD型撮像素子に対する低雑音化のための回路である。
【0044】
また、AGCアンプ105は、CDS回路104で相関2重サンプリングされた信号のレベルを補正する。尚、AGCアンプ105のゲインは、CPU121により、CPU121が内蔵するD/A変換器を介して設定データ(コントロール電圧)がAGCアンプ105に設定されることにより設定される。さらにA/D変換器106は、AGCアンプ105を介して入力したCCD103からのアナログ画像データをデジタル画像データに変換する。すなわち、CCD103の出力信号は、CDS回路104およびAGCアンプ105を介し、またA/D変換器106により、最適なサンプリング周波数(例えば、NTSC信号のサブキャリア周波数の整数倍)にてデジタル信号に変換される。
【0045】
また、デジタル信号処理部であるIPP(Image Pre-Processor)107、DCT(Discrete Cosine Transform)108、およびコーダー(Huffman Encoder/Decoder)109は、A/D変換器106から入力したデジタル画像データについて、色差(Cb、Cr)と輝度(Y)に分けて各種処理、補正および画像圧縮/伸長のためのデータ処理を施す。DCT108およびコーダー109は、例えばJPEG準拠の画像圧縮・伸長の一過程である直交変換・逆直交変換、並びに、JPEG準拠の画像圧縮・伸長の一過程であるハフマン符号化・復号化等を行う。
【0046】
さらに、MCC(Memory Card Controller)110は、圧縮処理された画像を一旦蓄えてPCカードインタフェース112を介してPCカード150への記録、或いはPCカード150からの読み出しを行う。
【0047】
CPU121は、ROMに格納されたプログラムに従ってRAMを作業領域として使用して、操作部123からの指示、或いは図示しないリモコン等の外部動作指示に従い、上記デジタルカメラ内部の全動作を制御する。具体的には、CPU121は、撮像動作、自動露出(AE)動作、自動ホワイトバランス(AWB)調整動作や、AF動作等の制御を行う。
【0048】
また、カメラ電源はバッテリ128、例えば、NiCd、ニッケル水素、リチウム電池等から、DC−DCコンバータ129に入力され、当該デジタルカメラ内部に供給される。
【0049】
表示部122は、LCD、LED、EL等で実現されており、撮影したデジタル画像データや、伸長処理された記録画像データ等の表示を行う。操作部123は、撮影指示を与えるためのレリーズキー、ズームレンズ系101bのズーム位置(Tele(テレ)〜Wide(ワイド))を設定するためのズームキー、機能選択およびその他の各種設定を外部から行うためのボタン等を備えている。CPU121は、レリーズキーが半押しされてRL−1がONとなるとAF動作等を実行し、また、レリーズキーが全押しされてRL−2がONとなると撮影動作を実行する。EEPROM130には、CPU121がデジタルカメラの動作を制御する際に使用する調整データ等が書き込まれている。
【0050】
上記したデジタルカメラ100(CPU121)は、被写体を撮像して得られる画像データをPCカード150に記録する記録モードと、PCカード150に記録された画像データを表示する表示モードと、撮像した画像データを表示部122に直接表示するモニタリングモード等を備えている。
【0051】
図4は、上記IPP107の具体的構成の一例を示す図である。IPP107は、図4に示す如く、A/D変換器106から入力したデジタル画像データをR・G・Bの各色成分に分離する色分離部1071と、分離されたR・G・Bの各画像データを補間する信号補間部1072と、R・G・Bの各画像データの黒レベルを調整するペデスタル調整部1073と、R、Bの各画像データの白レベルを調整するホワイトバランス調整部1074と、CPU121により設定されたゲインでR・G・Bの各画像データを補正するデジタルゲイン調整部1075と、R・G・Bの各画像データのγ変換を行うガンマ変換部1076と、RGBの画像データを色差信号(Cb、Cr)と輝度信号(Y)とに分離するマトリクス部1077と、色差信号(Cb、Cr)と輝度信号(Y)とに基づいてビデオ信号を作成し表示部122に出力するビデオ信号処理部1078と、を備えている。
【0052】
更に、IPP107は、ペデスタル調整部1073によるペデスタル調整後の画像データの輝度データ(Y)を検出するY演算部1079と、Y演算部1079で検出した輝度データ(Y)の所定周波数成分のみを通過させるBPF1080と、BPF1080を通過した輝度データ(Y)の積分値をAF評価値としてCPU121に出力するAF評価値回路1081と、Y演算部1079で検出した輝度データ(Y)に応じたデジタルカウント値をAE評価値としてCPU121に出力するAE評価値回路1082と、ホワイトバランス調整部1074による調整後のR・G・Bの各画像データの輝度データ(Y)を検出するY演算部1083と、Y演算部1083で検出した各色の輝度データ(Y)をそれぞれカウントして各色のAWB評価値としてCPU121に出力するAWB評価値回路1084と、CPU121とのインターフェースであるCPUI/F1085と、及びDCT108とのインターフェースであるDCTI/F1086等を備えている。
【0053】
図1の外部AFセンサー136は、パッシブ方式の測距センサーからなり、被写体の距離を測距するためのものである。図5は、外部AFセンサーの概略構成を示す図である。外部AFセンサー136は、レンズ151と、フォトセンサーアレイ152a(左側)、152b(右側)と、演算回路(不図示)を備えている。図5および図6を参照して外部AFセンサー136の測距原理を説明する。図5において、被写体までの距離をd、レンズ151とフォトセンサーアレイ152a(左側)、152b(右側)との距離をf、フォトセンサーアレイ152aに入力する光の幅をそれぞれ、X1、X2、光の入射されるフォトセンサーアレイ152a、152b間の距離をBとすると、外部AFセンサー136の前面から被写体までの距離dは、三角測量により、d=B・f/(X1+X2)で算出できる。図6は、左右のフォトセンサーアレイの被写体像を示しており、演算回路は、各フォトセンサーアレイの被写体像の光量を積分し、左右センサーデータのずれを演算することで、被写体の距離dを算出し、CPU121に出力する。
【0054】
本明細書において、外部AFセンサー136を使用して合焦位置を検出する動作を外部AFといい、CCD103を使用して合焦位置を検出する場合をCCD−AF(内部AF)という。CCD−AFでは、フォーカスレンズ101aを移動して、CCD103から出力される画像信号に応じた被写体のコントラストを示すAF評価値をサンプリングし、AF評価値のピーク位置を合焦位置とする山登りサーボ方式を使用する。外部AFとCCD−AFを使用してAFを行うことをハイブリットAFという。
【0055】
つぎに、上記構成のデジタルカメラのAFに関する動作例(動作例1、動作例2)を説明する。動作例1はCCD−AFと外部AFを略同時に実行する場合の動作例を示し、動作例2はCCD−AFに先行して外部AFを実行する場合の動作例を示す。
(動作例1)
デジタルカメラのAFに関する動作例1を図7〜図15を参照して説明する。図7は、CPU121の制御により実行されるデジタルカメラのAFに関する動作例1を説明するためのフローチャートである。
【0056】
図7において、まず、CPU121は、レリーズキーが半押しされて、RL−1がONされたか否かを判断する(ステップS1)。CPU121は、レリーズキーが半押しされて、RL−1がONされた場合には、ズームレンズ系101bのズーム位置を判定して(ステップS2)、ズームレンズ系101bのズーム位置(焦点距離)に応じてCCD−AFのサンプリング条件を設定する(ステップS3)。CPU121は、ズーム位置をズームレンズ系101bを駆動するパルスモータ134の駆動パルス数で判定する。
【0057】
ここで、CCD−AFのサンプリング条件としては、▲1▼CCD−AFを実行する場合のAF評価値のサンプリング範囲(フォーカスレンズ系101aの移動範囲)、▲2▼CCD−AFでAF評価値をサンプリングを行う場合のCCD103の受光面のAFエリアの範囲、▲3▼CCD−AFを実行する場合のフォーカスレンズ101aの移動量に対するAF評価値のサンプリング間隔等がある。CPU121は、ズームレンズ系01bのズーム位置(焦点距離)に応じて、▲1▼〜▲3▼のサンプリング条件の1又は複数を設定する。
【0058】
▲1▼CCD−AFを実行する場合のAF評価値のサンプリング範囲(フォーカスレンズ系101aの移動範囲)
図8はCCD−AFを実行する場合のサンプリング範囲(フォーカスレンズ系101aの移動範囲)を説明するための説明図である。同図において、横軸はレンズ位置(至近〜無限)を示し、縦軸は被写体のコントラスト(AF評価値)を示し、同図のaはサンプリング範囲を示す。焦点距離に応じて、適切なCCD−AFのサンプリング範囲(サンプリング幅)を設定することにより、合焦位置検出の精度と速度を両立させることが可能となる。CPU121は、必要精度に対して外部AF精度でも対応可能なワイドの場合はCCD−AFのサンプリング範囲を狭く設定して、CCD−AFの高速化を図る。他方、CPU121は、外部AFの精度では能力不足のテレの場合には、CCD−AFのサンプリング幅を広く設定する。
【0059】
▲2▼CCD−AFでAF評価値をサンプリングを行う場合のCCD103の受光面のAFエリアの範囲
図9はCCD103の受光面のAFエリアを説明するための図である。同図はCCD103の受光面内を示しており、CPU121は、この受光面内でAF評価値を取得するためのAFエリアを設定する。同図はCCD103の受光面を水平15、垂直10分割した場合を示しており、CPU121は、CCD103の受光面内で任意の大きさのAFエリアを設定できる。焦点距離に応じて、適切なCCD−AFのAFエリアを設定することにより、合焦位置検出の精度と速度を両立させることが可能となる。CPU121は、画面における被写体の占有面積が低いと思われるワイドの場合には、同図(a)に示すように、画面全体をAFエリアに設定して、画面全体についてAF評価値のサンプリングを行い、遅いサンプリング周期でAF評価値をサンプリングする。他方、CPU121は、画面における被写体の占有面積が高いと思われるテレの場合には、同図(b)に示すように、画面の中央部分のみをAFエリアに設定して、画面の中央部分についてのみAF評価値のサンプリングを行って、早いサンプリング周期でAF評価値をサンプリングする。付言すると、CCD−AFのサンプリング周期は画像処理時間によって決まってくるため、処理すべき画像の範囲を狭くすると、その分、速い周期でサンプリング可能となる。
【0060】
▲3▼CCD−AFを実行する場合のフォーカスレンズ系101aの移動量に対するAF評価値のサンプリング間隔
図10はCCD−AFのフォーカスレンズ系101aの移動量に対するAF評価値のサンプリング間隔を説明するための説明図である。同図において、横軸はレンズ位置(至近〜無限)を示し、縦軸は被写体のコントラスト(AF評価値)を示し、同図のbはAF評価値のサンプリング間隔を示す。焦点距離に応じて、適切なCCD−AFのサンプリング間隔を設定することにより、合焦位置検出の精度と速度を両立させることが可能となる。CPU121は、例えば、焦点深度が深い焦点距離では、レンズ移動間隔を大きくしてAF評価値のサンプリング間隔を大きくし、サンプリングするポイント数を減らしてCCD−AFの高速化を図る。
【0061】
そして、CPU121は、フォーカスレンズ系101aをCCD−AFの開始位置(基準位置)に設定する(ステップS4)。CCD−AFの開始位置(基準位置)としては、例えば、レンズ系の現ポジションを使用することができる。通常、同一の条件で連続して撮影する頻度が高いと考えられるからである。
【0062】
そして、CPU121は、外部AFとCCD−AFを同時にスタートさせる(ステップS5)。外部AFでは、外部AFセンサー136により、測距処理が行われ、被写体との距離の測定が行われ合焦位置の検出が行われる。また、CCD−AFでは、フォーカスレンズ系101aを基準位置の近傍で移動させて、設定されたサンプリング条件でAF評価値が取得されて合焦位置の検出が行われる。
【0063】
そして、CPU121は、外部AFが終了したか否かを判断し(ステップS6)、外部AFが終了した場合には、外部AFの距離測定結果が、CCD−AFの開始位置(基準位置)に対応する撮影距離と所定値以上異なるか否かを判断する(ステップS7)。CPU121は、外部AFの距離測定結果が、CCD−AFの開始位置(基準位置)に対応する撮影距離と所定値以上異なる場合には、CCD−AFを中断して、外部AFセンサー136で測定された距離に対応する位置(合焦位置)にフォーカスレンズ系101bを移動させる(ステップS8)。その後、その位置の近傍でCCD−AFを再実行する(ステップS9)。
【0064】
ステップS10では、CPU121は、CCD−AFが終了したか否かを判断し、CCD−AFが終了した場合には、ズーム位置(焦点距離)に基づいて、外部AFの合焦位置とCCD−AFの合焦位置のいずれかを最終の合焦位置と決定する(ステップS11)。
【0065】
ここで、ズーム位置に基づいて、外部AFの合焦位置とCCD−AFの合焦位置のいずれかを最終の合焦位置と決定する場合の具体的な方法を説明する。CCD−AFの方が一般に精度が高いが、Wideの場合は、外部AFの結果でも十分な精度が確保できる。従って、Wideに関してはCCD−AFを優先させる必要はない。本実施の形態においては、Wideの場合には、合焦位置に対応する被写体距離が近い方を最終の合焦位置と決定し、他方、Teleの場合には、CCD−AFの合焦位置を最終の合焦位置と決定する。なお、Wide〜Teleの間で外部AFの精度でぎりぎり合焦可能なポイントを基準として、このポイントもワイド側では、”近い方”、Tele側ではCCD−AF”を優先的に選択することにしても良い。以上は、双方の測距結果がそれぞれ信用できる場合の処理であり、結果の信頼性が低い場合は、両者の信頼性に関する情報を考慮して、最終の合焦位置を決定するのが好ましい。
【0066】
そして、図7において、CPU121は、決定した合焦位置にフォーカスレンズ系101aを移動させる(ステップS12)。その後、レリーズキーが全押しされてRL−2がONとなると、撮影動作を行い、被写体の画像データを取り込み、PCカード150に記録する。
【0067】
図11は、動作例1における外部AFとCCD−AFの実行タイミングを説明するためのタイミングチャートを示す。同図の(a)は、外部AFの距離測定結果とCCD−AFの開始位置(基準位置)に対応する撮影距離とが所定値以上異なるかった場合のタイミングを示す。同図(b)は、外部AFの距離測定結果とCCD−AFの開始位置(基準位置)に対応する撮影距離とが所定値以上異なり、CCD−AFを中断して、外部AFセンサー136で測定された距離に対応する位置を新たな基準位置とし、再度CCD−AFを実行した場合(▲2▼)を示している。
【0068】
(動作例2)
デジタルカメラのAFに関する動作例2を図12〜図16を参照して説明する。図12は、CPU121の制御により実行されるデジタルカメラのAFに関する動作例2を説明するためのフローチャートである。
【0069】
図12において、まず、電源が投入されると(ステップS21)、CPU121は、外部AF実行タイミングであるか否かを判断する(ステップS22)。この判断の結果、外部AFの実行タイミングでない場合には、ステップS24に移行する。他方、外部AFの実行タイミングである場合には、CPU121は、外部AFによる測距処理を実行して(ステップS23)、外部AFセンサー136は被写体との距離を測距して、ステップS24に移行する。
【0070】
ステップS24では、CPU121は、レリーズキーが半押しされて、RL−1がONされたか否かを判断する。RL−1がONでない場合には、ステップS22に戻り、RL−1がONされるまで、外部AFの実行タイミングで、外部AF測距処理が行われる。他方、ステップS24で、RL−1がONされた場合には、CPU121は、ズームレンズ系101bのズーム位置を判定して(ステップS25)、ズームレンズ系101bのズーム位置(焦点距離)に応じてCCD−AFのサンプリング条件を設定する(ステップS26)。CPU121は、ズーム位置をズームレンズ系101bを駆動するパルスモータ134の駆動パルス数で判定する。CCD−AFのサンプリング条件は実施の形態1と同様であるのでその説明は省略する。
【0071】
そして、ステップS27では、CPU121は外部AFの測距結果に基づいて、CCD−AFの開始位置(基準位置)を算出する。ここで、外部AFの測距結果に基づいて、CCD−AFの開始位置(基準位置)を算出する方法を説明する。例えば、外部AFの過去2点の測距結果から基準位置を予測する方法を使用することができる。これによれば、被写体が、近づいてくるか、遠ざかっているか、また、止まっているかを判断することが可能となる。
【0072】
図13は、外部AFの直近の過去2点の距離測定結果からCCD−AFの開始位置(基準位置)を算出する場合を説明するための説明図を示す。同図において、Lccdは予測される被写体距離(CCD−AFの基準位置)、L2はレリーズ操作直前の外部AFによる被写体距離、L1はL2よりさらに1回前の外部AFによる被写体距離、t1はコンティニュアス外部AFの間隔、t2はレリーズ操作直前の外部AFからレリーズまでの時間を示す。予測される被写体距離(CCD−AFの基準位置)Lccdは、下式により算出する。そして、算出された予測される被写体距離Lccdに対応するレンズ系の位置をCCD−AFの開始位置(基準位置)と決定する。
【0073】
Lccd=L2+t2×(L2−L1)/t1
例えば、t1=t2とした場合に、過去2回が2m、3mの場合には、次は4m、他方、過去2回が4m、3mの場合には、次は2mと予測される。よって、それぞれ4m前後、2m前後に対応するレンズ系の位置でCCD−AFを実施することになる。
【0074】
なお、ここでは、過去2点からCCD−AFの基準位置を決定することにしたが、過去3点もしくはそれ以上の時系列データを用いることにしても良い。これにより、より細かい動体予測が可能となる。例えば、過去3点からCCD−AFの基準位置を決定する場合は、被写体が、近づいてくるか、遠ざかっているか、止まっているか、前後に揺れているかを判断することも可能となる。例えば、1回目と2回目、2回目と3回目の被写体距離を比較することにより、被写体移動の加速度成分も検出可能である。この場合、2次曲線で近似する方法や(上から落ちてくる被写体とか)、三角関数で近似する方法(ブランコに乗っている被写体とか)等を使用することができる。
【0075】
そして、CPU121は、算出したCCD−AFの開始位置(基準位置)にフォーカスレンズ系101aを移動させる(ステップS28)。フォーカスレンズ系101aを基準位置に移動した後、外部AFとCCD−AFを同時にスタートさせる(ステップS29)。外部AFでは、外部AFセンサー136により、被写体との距離の測定が行われ合焦位置の検出が行われる。また、CCD−AFでは、フォーカスレンズ系101aを基準位置の近傍で移動させて、設定されるサンプリング条件でAF評価値を取得し、合焦位置の検出が行われる。
【0076】
つづいて、CPU121は、外部AFおよびCCD−AFが終了したか否かを判断し(ステップS30)、外部AFとCCD−AFが終了した場合には、ズーム位置(焦点距離)に基づいて、外部AFで検出された合焦位置とCCD−AFで検出された合焦位置のいずれかを最終の合焦位置と決定する(ステップS31)。ズーム位置(焦点距離)に基づいて、外部AFの合焦位置とCCD−AFの合焦位置のいずれかを最終の合焦位置と決定する方法は動作例1と同様であるのでその説明は省略する。
【0077】
そして、CPU121は、決定した合焦位置にフォーカスレンズ系101aを移動させる(ステップS32)。その後、レリーズキーが全押しされてRL−2がONとなると、撮影動作を行い、被写体の画像データを取り込みPCカード150に記録する。
【0078】
図14を参照して、動作例2における、外部AFとCCD−AFの実行タイミングを説明する。図14は、動作例2における外部AFとCCD−AFの実行タイミングを説明するためのタイミングチャートを示す。同図の(a)は、外部AFの実行タイミングでレリーズが押された場合、(b)は、外部AFの休止中にレリーズが押された場合、(c)は、外部AF作動中にレリーズが押された場合(その1)、(d)は、外部AF作動中にレリーズが押された場合(その2)のタイミングを示す。
【0079】
同図(a)に示すように、外部AFの実行タイミングでレリーズが押された場合には、レリーズのONのタイミングで外部AFとCCD−AFを実行する。また、同図(b)に示すように、外部AF休止中にレリーズが押された場合には、外部AFの休止を終了して、レリーズのONのタイミングで外部AFとCCD−AFを実行する。また、外部AF作動中にレリーズが押された場合には、同図(c)に示すタイミングと、同図(d)に示すタイミングが考えられ、いずれのタイミングを使用することにしても良い。
【0080】
外部AF作動中にレリーズが押された場合には、同図(c)に示すように、レリーズの時点で外部AF▲3▼を中止し、再駆動することにしても良い。この場合は、外部AF▲3▼のデータは取得しないで、外部AFの▲4▼のデータとCCD−AFとの結果に基づいて、最終的な合焦位置を判断することになる。
【0081】
また、外部AF作動中にレリーズが押された場合には、同図(d)に示すように、レリーズの時点でも外部AF▲3▼を中断せず、外部AF▲3▼のデータとCCD−AFとの結果に基づいて、最終的な合焦位置を判断することになる。通常は、外部AF作動時間は0.1秒以下であるため、(d)の方式でも実使用上問題は無い。ただし、被写体が低輝度時等の場合は、外部AFでも0.1秒前後の時間がかかるため、(c)方式の方が確実である。
【0082】
なお、上記ステップS28において、外部AFで検出された測距結果とCCD−AFで検出された合焦位置に対応する撮影距離とが、所定値以上異なる場合には、図15に示すように、CCD−AFの開始位置(基準位置)を変えて、再度CCD−AFを行うことにしても良い。
【0083】
図16は上記動作例2を説明するための説明図を示す。同図において、縦軸はコントラスト(AF評価値)、横軸はレンズ位置(至近〜無限)を示している。まず、外部AFにより合焦位置を検出し、ついで、当該検出された合焦位置の近傍で、CCD−AFでサンプリングを行って、合焦位置を検出する。そして、両合焦位置に基づいて最終的な合焦位置を決定する。
【0084】
以上説明したように、本実施の形態によれば、ズームレンズ系を備え、外部AFでは外部AFセンサー136を使用して合焦位置を検出し、CCD−AFでは、フォーカスレンズ101aを移動して、CCD103から出力される画像信号に応じた被写体のコントラストを示すAF評価値をサンプリングし、AF評価値のピーク位置を合焦位置として検出し、CCD−AFと外部AFで検出された合焦位置に基づいて最終的な合焦位置を決定するデジタルカメラにおいて、レンズ系(ズームレンズ系)の焦点距離に応じて、CCD−AFでAF評価値をサンプリングする際のサンプリング条件を設定することとしたので、焦点位置に応じて、適切なCCD−AFのサンプリング条件の設定を行うことでき、ズームレンズ系を備えたシステムにおいても、高精度かつ高速な合焦位置検出が可能となる。
【0085】
また、本実施の形態においては、CCD−AFのサンプリング条件としてAF評価値をサンプリングする際のサンプリング範囲を変更することとしたので、焦点距離に応じて適切なAF評価値をサンプリングする際のサンプリング範囲を設定でき、合焦位置検出の精度と速度を両立させることが可能となる。
【0086】
また、本実施の形態においては、CCD−AFのサンプリング条件として、AF評価値をサンプリングするためのCCD103の受光画面のAFエリアの大きさ(サンプリング周期)を変更することとしたので、合焦位置検出の精度と速度を両立させることが可能となる。
【0087】
また、本実施の形態においては、CCD−AFのサンプリング条件として、AF評価値をサンプリングする際のサンプリング間隔を変更することとしたので、合焦位置検出の精度と速度を両立させることが可能となる。
【0088】
また、本実施の形態においては、レンズ系の焦点距離に基づいて、外部AFとまたはCCD−AFで検出された検出結果を最終的な合焦位置を決定することとしたので、より高精度な合焦位置の検出が可能となる。
【0089】
また、本実施の形態のデジタルカメラは、外部AFセンサーとして、パッシブ方式の測距センサーを使用することとしたので、小型化、低コスト化、処理の簡略化が可能となる。
【0090】
なお、本発明は上記した実施の形態に限定されるものではなく、発明の要旨を変更しない範囲で適宜変形して実行可能である。例えば、本実施の形態においては、本発明にかかる自動合焦装置および自動合焦方法をデジタルカメラに適用した例を説明したが、本発明はこれに限られるものではなく、PDA等の情報携帯入力装置等にも適用可能である。要は、画像を入力する際にAFを行う全ての装置に適用可能である。
【0091】
【発明の効果】
以上説明したように、請求項1にかかる自動合焦装置によれば、フォーカスレンズ系およびズームレンズ系を含むレンズ系と、被写体像を所定位置に結像し、撮像手段はレンズ系を介して入力される被写体像を撮像して画像データを出力し、第1の合焦位置検出手段は撮像手段を使用して、レンズ系を移動させて被写体のコントラストをサンプリングして合焦位置を検出し、第2の合焦位置検出手段は撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出してレンズ系の合焦位置を検出し、合焦位置決定手段は第1の合焦位置検出手段および第2の合焦位置検出手段で検出された合焦位置に基づいて、最終的な合焦位置を決定し、第1の合焦位置検出手段の被写体のコントラストを検出する際のサンプリング範囲を、全域より狭く、かつ第2の合焦位置検出手段によって検出された被写体との距離に相当するサンプリング位置の前後の範囲として、前記レンズ系の焦点距離に応じて、レンズ系がワイドの場合には狭く設定し、テレ側になるに従い広く設定することとしたので、焦点位置に応じて、第1の合焦位置検出手段のサンプリング範囲の設定を行うことでき、ズームレンズ系を備えたシステムにおいても、高精度かつ高速な合焦位置検出が可能となる。
【0092】
また、請求項2にかかる自動合焦装置によれば、請求項1にかかる自動合焦装置において、さらに、被写体のコントラストを検出するための前記撮像手段の受光画面内のエリアの大きさを、前記レンズ系がワイドの場合には大きく設定し、テレになるに従い小さく設定することとしたので、請求項1にかかる自動合焦装置の効果に加えて、合焦位置検出の精度と速度を両立させることが可能となる。
【0093】
また、請求項3にかかる自動合焦装置によれば、請求項にかかる自動合焦装置において、さらに、被写体のコントラストを検出する際のサンプリング間隔を、前記レンズ系がワイドの場合には大きく設定し、テレになるに従い小さく設定することとしたので、請求項1にかかる自動合焦装置の効果に加えて、合焦位置検出の精度と速度を両立させることが可能となる。
【0099】
また、請求項にかかる自動合焦装置によれば、請求項1〜請求項のいずれか1つにかかる自動合焦装置において、合焦位置決定手段は、レンズ系の焦点距離に基づき、第1の合焦位置検出手段または第2の合焦位置検出手段の合焦結果を最終的な合焦位置と決定することとしたので、請求項1〜請求項のいずれか1つにかかる自動合焦装置の効果に加えて、より高精度な合焦位置の検出が可能となる。
【0100】
また、請求項にかかる自動合焦装置によれば、請求項にかかる自動合焦装置において、合焦位置決定手段は、レンズ系がワイドの場合には、第1の合焦位置検出手段および第2の合焦位置検出手段で検出された合焦位置のうち、当該合焦位置に対応する被写体距離が近い方を最終の合焦位置と決定することとしたので、請求項にかかる自動合焦装置の効果に加えて、レンズ系がワイドの場合でも、より高精度な合焦位置の検出が可能となる。
【0101】
また、請求項にかかる自動合焦装置によれば、請求項にかかる自動合焦装置において、合焦位置決定手段は、レンズ系がテレの場合には、第1の合焦位置検出手段で検出された合焦位置を最終の合焦位置と決定することとしたので、請求項にかかる自動合焦装置の効果に加えて、レンズ系がテレの場合でも、より高精度な合焦位置の検出が可能となる。
【0103】
また、請求項にかかる自動合焦装置によれば、請求項1〜6のいずれか1つにかかる自動合焦装置において、合焦動作の動作を指示するための合焦動作操作部材の操作に先行して、所定の時間間隔で第2の合焦位置検出手段は被写体との距離を測距する測距処理を実行し、合焦動作操作部材が操作された場合には、第1の合焦位置検出手段は、第2の合焦位置検出手段で検出された合焦位置を被写体との距離に相当するサンプリング位置の前後の範囲をサンプリング範囲として合焦位置を検出する動作を実行することとしたので、請求項1〜請求項6のいずれか1つにかかる自動合焦装置の効果に加えて、より高速度に合焦位置の検出が可能となる。
【0104】
また、請求項にかかるデジタルカメラによれば、請求項1〜請求項のいずれか1つにかかる自動合焦装置を適用することとしたので、ズームレンズ系を備えたデジタルカメラにおいても、高精度かつ高速な合焦位置検出が可能となる。
【0105】
また、請求項にかかる携帯情報入力装置によれば、請求項1〜請求項のいずれか1つにかかる自動合焦装置を適用することとしたので、ズームレンズ系を備えた携帯情報入力装置においても、高精度かつ高速な合焦位置検出が可能となる。
【0106】
また、請求項10にかかる合焦位置検出方法によれば、第1の工程では、撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出してレンズ系の合焦位置を検出し、第2の工程では、撮像手段を使用して、レンズ系を移動させて被写体のコントラストをサンプリングして合焦位置の検出を行い、第3の工程では、第1の工程とおよび第2の工程で検出された合焦位置に基づいて、最終的な合焦位置を決定し、第2の工程による被写体のコントラストを検出する際のサンプリング範囲を、全域より狭く、かつ第1の工程によって検出された被写体との距離に相当するサンプリング位置の前後の範囲として、レンズ系の焦点距離に応じて、レンズ系がワイドの場合には狭く設定し、テレになるに従い広く設定することとしたので、ズームレンズ系を備えたシステムにおいても、高精度かつ高速な合焦位置検出が可能となる。
【0107】
また、請求項11にかかる合焦位置検出方法によれば、請求項10にかかる合焦位置検出方法において、さらに、被写体のコントラストを検出するための前記撮像手段の受光画面内のエリアの大きさを、前記レンズ系がワイドの場合には大きく設定し、テレになるに従い小さく設定することとしたので、請求項11にかかる合焦位置検出方法の効果に加えて、合焦位置検出の精度と速度を両立させることが可能となる。
【0108】
また、請求項12にかかる合焦位置検出方法によれば、請求項10にかかる合焦位置検出方法において、さらに、被写体のコントラストを検出する際の、サンプリング間隔を、前記レンズ系がワイドの場合には大きく設定し、テレになるに従い小さく設定することとしたので、請求項10にかかる合焦位置検出方法の効果に加えて、合焦位置検出の精度と速度を両立させることが可能となる。
【0114】
また、請求項13にかかる合焦位置検出方法によれば、請求項10〜請求項12にかかる合焦位置検出方法において、第3の工程では、レンズ系の焦点距離に基づき、第1の工程または第2の工程で検出された合焦結果を最終的な合焦位置と決定することとしたので、請求項10〜請求項12のいずれか1つにかかる合焦位置検出方法の効果に加えて、より高精度な合焦位置の検出が可能となる。
【0115】
また、請求項14にかかる合焦位置検出方法によれば、請求項13にかかる合焦位置検出方法において、第3の工程では、レンズ系がワイドの場合には、第1の工程および第2の工程で検出された合焦位置のうち、当該合焦位置に対応する被写体距離が近い方を最終の合焦位置と決定することとしたので、請求項13にかかる合焦位置検出方法の効果に加えて、レンズ系がワイドの場合でも、より高精度な合焦位置の検出が可能となる。
【0116】
また、請求項15にかかる合焦位置検出方法によれば、請求項13にかかる合焦位置検出方法において、第3の工程では、レンズ系がテレの場合には、第2の工程で検出された合焦位置を最終の合焦位置と決定することとしたので、請求項13にかかる自動合焦装置の効果に加えて、レンズ系がテレの場合でも、より高精度な合焦位置の検出が可能となる。
【0118】
また、請求項16にかかる自動合焦装置によれば、第1の工程では、合焦動作を指示するための合焦動作操作部材の操作に先行して、所定の時間間隔で撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出し、第2の工程では、合焦動作操作部材が操作された場合には、第1の工程の測距結果を使用して基準位置を算出するとともに、写体のコントラストを検出する際のサンプリング範囲を、全域より狭く、かつ第1の工程によって検出された被写体との距離に相当するサンプリング位置の前後の範囲として、レンズ系の焦点距離に応じて、レンズ系がワイドの場合には狭く設定し、テレになるに従い広く設定し、第3の工程では、撮像手段を使用して、第2の工程で算出された基準位置の近傍で、レンズ系を移動させて設定されたサンプリング範囲で合焦位置の検出を行い、第4の工程では、光電変換手段を使用して、被写体との距離を検出してレンズ系の合焦位置を検出し、第5の工程では、第3の工程および第4の工程で検出された合焦位置に基づいて、最終的な合焦位置を決定し、第3の工程と第4の工程とを略同時に実行する。
【0119】
また、請求項17にかかるコンピュータが読取可能な記録媒体によれば、請求項10〜請求項16のいずれか1つに記載の発明の各工程をコンピュータに実行させるためのプログラムが記録されているので、コンピュータで記録媒体に記録されているプログラムを実行することにより、ズームレンズ系を備えたシステムにおいても、高精度かつ高速な合焦位置検出が可能となる。
【図面の簡単な説明】
【図1】本実施の形態に係るデジタルカメラの構成図である。
【図2】パルスモータのパルス数Zp(モータ等分18分割)とズームレンズ系のレンズ繰り出し量(mm)の関係の一例を示す図である。
【図3】ズーム位置がWide〜Teleの場合の撮影距離(1/L)とズームレンズ系のレンズ繰り出し量(mm)の関係の一例を示す図である。
【図4】図1のIPPの具体的構成の一例を示す図である。
【図5】図1の外部AFセンサーの概略構成を示す図である。
【図6】外部AFセンサーの測距原理を説明するための説明図である。
【図7】デジタルカメラのAFに関する動作例1を説明するためのフローチャートである。
【図8】CCD−AFを実行する場合のサンプリング範囲を説明するための説明図である。
【図9】CCDの受光面のAFエリアを説明するための図である。
【図10】CCD−AFのフォーカスレンズ系の移動量に対するAF評価値のサンプリング間隔を説明するための説明図である。
【図11】動作例1における外部AFとCCD−AFの実行タイミングを説明するためのタイミングチャートを示す。
【図12】デジタルカメラのAFに関する動作例2を説明するためのフローチャートである。
【図13】外部AFの直近の過去2点の距離測定結果からCCD−AFの開始位置(基準位置)を算出する場合を説明するための説明図である。
【図14】動作例2における外部AFとCCD−AFの実行タイミングを説明するためのタイミングチャートを示す。
【図15】動作例2における外部AFとCCD−AFの実行タイミングを説明するためのタイミングチャートを示す。
【図16】動作例2を説明するための説明図を示す。
【図17】従来のCCD−AF方式を説明するための説明図である。
【図18】従来のCCD−AF方式を説明するための説明図である。
【符号の説明】
100 デジタルカメラ
101 レンズ系
101a フォーカスレンズ系
101b ズームレンズ系
102 オートフォーカス等を含むメカ機構
103 CCD(電荷結合素子)
104 CDS(相関2重サンプリング)回路
105 可変利得増幅器(AGCアンプ)
106 A/D変換器
107 IPP(Image Pre-Processor)
108 DCT(Discrete Cosine Transform)
109 コーダー(Huffman Encoder/Decoder)
110 MCC(Memory Card Controller)
111 RAM(内部メモリ)
112 PCカードインタフェース
121 CPU
122 表示部
123 操作部
125 モータドライバ
126 SG部
127 ストロボ
128 バッテリ
129 DC−DCコンバータ
130 EEPROM
131 フォーカスドライバ
132 パルスモータ
133 ズームドライバ
134 パルスモータ
135 モータドライバ
136 外部AFセンサー
150 PCカード
151 レンズ
152 フォトセンサーアレイ
1071 色分離部
1072 信号補間部
1073 ペデスタル調整部
1074 ホワイトバランス調整部
1075 デジタルゲイン調整部
1076 γ変換部
1077 マトリクス部
1078 ビデオ信号処理部
1079 Y演算部
1080 BPF
1081 AF評価値回路
1082 AE評価値回路
1083 Y演算部
1084 AWB評価値回路
1085 CPUI/F
1086 DCTI/F
1075r、1075g、1075b 乗算器
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an automatic focusing device, a digital camera, a portable information input device, a focusing position detection method, and a computer-readable recording medium. Specifically, the detection of the focusing position is performed using an external AF and a CCD-AF. The present invention relates to an automatic focusing device, a digital camera, a portable information input device, a focusing position detection method, and a computer-readable recording medium.
[0002]
[Prior art]
As an AF method of a conventional electronic still camera, a CCD, a CCD-AF method in which a focus peak is detected by a luminance signal accumulated in the CCD while driving a focus lens in the optical axis direction, or a triangulation method is used. An automatic focusing mechanism is used alone.
[0003]
[Problems to be solved by the invention]
However, as shown in FIG. 17, the CCD-AF system is a system in which the CCD or focus lens is driven from infinity to the nearest position to find the focus peak, and therefore it takes time to detect the in-focus position. There is a problem that it takes. In order to solve the above-described problem, as shown in FIG. 18A, rough sampling is performed from infinity to the nearest position to detect the approximate focus position, and then, as shown in FIG. 18B. A method of detecting the final in-focus position by performing fine sampling near the approximate in-focus position has also been proposed. According to such a method, the detection time of the in-focus position can be slightly shortened, but it cannot be said to be sufficient.
[0004]
  Also,UpIn the triangulation method described above, a parallax shift in distance measurement on the close distance side is likely to occur. There are problems such as poor performance on the telephoto side. Recently, digital cameras equipped with a zoom lens have also become widespread. In general, the accuracy of AF differs depending on the focal length.
[0005]
The present invention has been made in view of the above, and in an automatic focusing apparatus and a focusing position detection method including a zoom lens system, an automatic focusing that can detect an accurate focusing position in a short time is provided. It is an object to provide a focusing device and a focusing position detection method.
[0006]
[Means for Solving the Problems]
  In order to solve the above-described problem, the invention according to claim 1 is directed to a lens system including a focus lens system and a zoom lens that forms a subject image at a predetermined position, and a subject image input via the lens system. Imaging means for imaging and outputting image data; and first focus position detection means for detecting the focus position by moving the lens system and sampling the contrast of the subject using the image pickup means; A second focus position detecting means for detecting a focus position of the lens system by detecting a distance from a subject using a photoelectric conversion means different from the imaging means; and the first focus position. A focus position determining means for determining a final focus position based on the focus position detected by the detection means and the second focus position detecting means, and the focus position determining means comprises:, The first focus position detecting meansSampling range for detecting the contrast of the subjectNarrower than the whole area, andThe distance from the subject detected by the second focus position detecting meansAs the range before and after the corresponding sampling position, depending on the focal length of the lens system,When the lens system is wide, the lens system is set to be narrow, and the lens system is set to be wide as it becomes telephoto.
[0007]
  According to the above invention, the lens system including the focus lens system and the zoom lens system and the subject image are formed at predetermined positions, and the imaging unit captures the subject image input through the lens system and outputs the image data. The first focus position detection means uses the image pickup means to detect the focus position by moving the lens system and sample the contrast of the subject, and the second focus position detection means is the image pickup means. Uses different photoelectric conversion means to detect the distance to the subject to detect the focus position of the lens system, and the focus position determination means detects the first focus position detection means and the second focus position detection. The final focus position is determined based on the focus position detected by the means,Of the first in-focus position detecting meansSampling range for detecting the contrast of the subjectNarrower than the whole area, andThe distance from the subject detected by the second focus position detecting meansAs the range before and after the corresponding sampling position, depending on the focal length of the lens system,When the lens system is wide, the lens system is set narrower, and the lens system is set wider toward the telephoto side.
[0008]
  The invention according to claim 2 is the invention according to claim 1,Further, the size of the area in the light receiving screen of the image pickup means for detecting the contrast of the subject is set larger when the lens system is wide, and smaller as the distance becomes tele.
[0009]
  Further, the invention according to claim 3 is the claim.1In the invention according toFurthermore, the sampling interval for detecting the contrast of the subject is set to be large when the lens system is wide, and is set to be small as the distance becomes tele..
[0015]
  Claims4The invention according to claim 1 to claim 13In the invention according to any one of the above, the in-focus position determination means is based on the focal length of the lens system, and the in-focus result of the first in-focus position detection means or the second in-focus position detection means Is determined as the final in-focus position. According to the above invention, the focus position determination means determines the focus result of the first focus position detection means or the second focus position detection means as the final focus position based on the focal length of the lens system. decide.
[0016]
  Claims5The invention according to claim4In the invention according to the first aspect, the focus position determination unit is configured to detect the focus position detected by the first focus position detection unit and the second focus position detection unit when the lens system is wide. Of these, the one with the shorter subject distance corresponding to the in-focus position is determined as the final in-focus position. According to the above invention, when the lens system is wide, the in-focus position determining means includes the in-focus position detected by the first in-focus position detecting means and the second in-focus position detecting means. The one closer to the subject corresponding to the focus position is determined as the final focus position.
[0017]
  Claims6The invention according to claim4In the invention according to this aspect, the in-focus position determining means determines the in-focus position detected by the first in-focus position detecting means as the final in-focus position when the lens system is tele. is there. According to the above invention, when the lens system is tele, the focus position determining means determines the focus position detected by the first focus position detecting means as the final focus position.
[0019]
  Claims7The invention according to any one of claims 1 to 6 is the invention according to any one of claims 1 to 6, wherein the second operation is performed at predetermined time intervals prior to the operation of the focusing operation member for instructing the operation of the focusing operation. The in-focus position detecting means executes a distance measuring process for measuring the distance to the subject, and when the in-focus operation member is operated, the first in-focus position detecting means The operation of detecting the in-focus position is executed with the in-focus position detected by the in-focus position detecting means as the reference position. According to the above invention, prior to the operation of the focusing operation operating member for instructing the operation of the focusing operation, the second focusing position detection means measures the distance to the subject at a predetermined time interval. When the focusing process operation member is operated after performing the distance measuring process, the first focus position detecting means is detected by the second focus position detecting means.The range before and after the sampling position corresponding to the distance to the subject is the sampling rangeAn operation for detecting the in-focus position is executed.
[0020]
  Claims8The invention according to claim 1 to claim 17The invention according to any one of the above is applied. According to the invention, claims 1 to claim7The automatic focusing device according to any one of the above was applied to a digital camera.
[0021]
  Claims9The invention according to claim 1 to claim 17The invention according to any one of the above is applied. According to the invention, claims 1 to claim7The automatic focusing device according to any one of the above was applied to a portable information input device.
[0022]
  Claims10According to the invention, in a focus position detection method for detecting a focus position with respect to a subject of a lens system including a focus lens system and a zoom lens system, the distance from the subject is determined by using a photoelectric conversion unit different from the imaging unit. A first step of detecting and detecting the in-focus position of the lens system; and a second step of detecting the in-focus position by sampling the contrast of the subject by moving the lens system using the imaging means. And a third step of determining a final in-focus position based on the in-focus position detected in the first step and the second step, and the third step IsAccording to the second stepSampling range for detecting the contrast of the subjectNarrower than the whole area, andThe distance from the subject detected in the first stepAs the range before and after the corresponding sampling position, depending on the focal length of the lens system,When the lens system is wide, the lens system is set narrower, and the lens system is set wider as it becomes telephoto.
[0023]
  According to the above invention, in the first step, the photoelectric conversion means different from the imaging means is used to detect the distance to the subject to detect the focus position of the lens system, and in the second step, the imaging is performed. The focus position is detected by moving the lens system using the means and sampling the contrast of the subject to detect the focus position. In the third step, the focus position detected in the first step and the second step is detected. To determine the final focus position,By the second stepSampling range for detecting the contrast of the subjectNarrower than the whole area, andThe distance from the subject detected in the first stepAs the range before and after the corresponding sampling position, depending on the focal length of the lens system,If the lens system is wide, the lens system is set narrower, and the lens system is set wider as it becomes telephoto.
[0024]
  Claims11The invention according to claim10In the invention according to the present invention, the size of the area in the light receiving screen of the imaging means for detecting the contrast of the subject is set larger when the lens system is wide, and smaller as it becomes tele.
[0025]
  Claims12The invention according to claim10In the invention according to the present invention, the sampling interval for detecting the contrast of the subject is set larger when the lens system is wide, and smaller as the distance becomes tele.
[0026]
  Claims13The invention according to claim 11 is a claim.12In the in-focus position detection method according to any one of the above, in the third step, the focus detected in the first step or the second step is based on the focal length of the lens system. The focus result is determined as a final focus position.
[0032]
  Claims14The invention according to claim13In the invention according to the third aspect, in the third step, when the lens system is wide, among the in-focus positions detected in the first step and the second step, it corresponds to the in-focus position. The one with the shorter object distance is determined as the final focus position. According to the above invention, in the third step, when the lens system is wide, the subject distance corresponding to the in-focus position among the in-focus positions detected in the first step and the second step is The closest one is determined as the final focus position.
[0033]
  Claims15The invention according to claim13In the present invention, in the third step, when the lens system is tele, the focus position detected in the second step is determined as the final focus position. According to the above invention, in the third step, when the lens system is tele, the focus position detected in the second step is determined as the final focus position.
[0035]
  Claims16According to the invention, in a focus position detection method for detecting a focus position with respect to a subject of a lens system including a focus lens system, a predetermined operation is performed prior to an operation of a focus operation member for instructing a focus operation. A first step of detecting a distance to the subject using a photoelectric conversion unit different from the imaging unit at time intervals, and a measurement of the first step when the focusing operation member is operated. While calculating the reference position using the distance result,CoveredSampling range for detecting the contrast of the subjectNarrower than the whole area, andThe distance from the subject detected in the first stepAs the range before and after the corresponding sampling position, depending on the focal length of the lens system,When the lens system is wide, the second step is set to be narrow, and the lens system is set to be wider as it becomes tele; and the imaging means is used in the vicinity of the reference position calculated in the second step. A third step of detecting the in-focus position within the set sampling range by moving the lens system; and the in-focus position of the lens system by detecting the distance to the subject using the photoelectric conversion means And a fifth step of determining a final focus position based on the focus positions detected in the third step and the fourth step, and The third step and the fourth step are performed substantially simultaneously.
[0036]
  According to the above invention, in the first step, prior to the operation of the focusing operation member for instructing the focusing operation, the photoelectric conversion unit different from the imaging unit is used at a predetermined time interval, The distance to the subject is detected, and in the second step, when the focusing operation member is operated, the reference position is calculated using the distance measurement result of the first step, andDepending on the focal length of the lens system, the sampling range for detecting the contrast of the subject is narrower than the entire region and is a range before and after the sampling position corresponding to the distance to the subject detected by the first step. , If the lens system is wide, set it narrower, set it wider as it becomes tele,In the third step, the in-focus position is detected in the sampling range set by moving the lens system in the vicinity of the reference position calculated in the second step using the imaging means, and the fourth step In the step, the photoelectric conversion means is used to detect the distance to the subject to detect the focus position of the lens system, and in the fifth step, the focus detected in the third step and the fourth step. Based on the position, the final in-focus position is determined, and the third step and the fourth step are executed substantially simultaneously.
[0037]
  Claims17The invention according to claim 11 is a claim.16The program for making a computer perform each process of invention described in any one of these is recorded. According to the above invention, by executing a program recorded on a recording medium by a computer, claims 11 to 11 are provided.16Each process of the invention described in any one of is realized.
[0038]
DETAILED DESCRIPTION OF THE INVENTION
Exemplary embodiments of an automatic focusing device, a digital camera, a portable information input device, a focusing position detection method, and a computer-readable recording medium according to the present invention will be described below in detail with reference to the accompanying drawings. To do.
[0039]
FIG. 1 is a block diagram of a digital camera to which an automatic focusing device and a focus position detection method according to the present invention are applied. In the figure, reference numeral 100 denotes a digital camera. The digital camera 100 includes a lens system 101, a mechanical mechanism 102 including an aperture / filter unit, a CCD 103, a CDS circuit 104, a variable gain amplifier (AGC amplifier) 105, an A / A D converter 106, IPP 107, DCT 108, coder 109, MCC 110, DRAM 111, PC card interface 112, CPU 121, display unit 122, operation unit 123, SG (control signal generation) unit 126, strobe device 127, battery 128, DC-DC A converter 129, an EEPROM 130, a focus driver 131, a pulse motor 132, a zoom driver 133, a pulse motor 134, a motor driver 135, and an external AF sensor 136 are provided. A detachable PC card 150 is connected via the PC card interface 112.
[0040]
The lens unit includes a mechanical mechanism 102 including a lens 101 system, an aperture / filter unit, and the like. A mechanical shutter of the mechanical mechanism 102 performs simultaneous exposure of two fields. The lens system 101 is composed of, for example, a varifocal lens, and includes a focus lens system 101a and a zoom lens system 101b.
[0041]
The focus driver 131 drives the pulse motor 132 according to the control signal supplied from the CPU 121 to move the focus lens system 101a in the optical axis direction. The zoom driver 133 drives the pulse motor 134 according to the control signal supplied from the CPU 121 to move the zoom lens system 101b in the optical axis direction. Further, the motor driver 135 drives the mechanical mechanism 102 in accordance with a control signal supplied from the CPU 121, and sets, for example, an aperture value of the aperture.
[0042]
FIG. 2 is a diagram illustrating an example of the relationship between the number of pulses Zp of the pulse motor 134 (motor equally divided into 18) and the lens extension amount (mm) of the zoom lens system 101b. FIG. 3 is a diagram showing an example of the relationship between the shooting distance (1 / L) and the lens extension amount (mm) of the zoom lens system 101b when the zoom position is Wide to Tele.
[0043]
A CCD (charge coupled device) 103 converts an image input via the lens unit into an electrical signal (analog image data). A CDS (correlated double sampling) circuit 104 is a circuit for reducing noise in the CCD type image pickup device.
[0044]
In addition, the AGC amplifier 105 corrects the level of the signal that has been correlated and sampled by the CDS circuit 104. The gain of the AGC amplifier 105 is set by the CPU 121 when setting data (control voltage) is set in the AGC amplifier 105 via a D / A converter built in the CPU 121. Further, the A / D converter 106 converts analog image data from the CCD 103 input via the AGC amplifier 105 into digital image data. That is, the output signal of the CCD 103 is converted into a digital signal through the CDS circuit 104 and the AGC amplifier 105 and by the A / D converter 106 at an optimum sampling frequency (for example, an integer multiple of the subcarrier frequency of the NTSC signal). Is done.
[0045]
Further, an IPP (Image Pre-Processor) 107, a DCT (Discrete Cosine Transform) 108, and a coder (Huffman Encoder / Decoder) 109, which are digital signal processing units, are provided for digital image data input from the A / D converter 106. Various processing, correction, and data processing for image compression / decompression are performed separately for color differences (Cb, Cr) and luminance (Y). The DCT 108 and the coder 109 perform, for example, orthogonal transformation / inverse orthogonal transformation, which is a JPEG-compliant image compression / decompression process, and Huffman coding / decoding, which is a JPEG-compliant image compression / decompression process.
[0046]
Further, an MCC (Memory Card Controller) 110 temporarily stores the compressed image and records it on the PC card 150 or reads it from the PC card 150 via the PC card interface 112.
[0047]
The CPU 121 uses the RAM as a work area according to a program stored in the ROM, and controls all operations inside the digital camera according to an instruction from the operation unit 123 or an external operation instruction such as a remote controller (not shown). Specifically, the CPU 121 controls an imaging operation, an automatic exposure (AE) operation, an automatic white balance (AWB) adjustment operation, an AF operation, and the like.
[0048]
Camera power is input from a battery 128, such as NiCd, nickel metal hydride, or a lithium battery, to the DC-DC converter 129 and supplied into the digital camera.
[0049]
The display unit 122 is realized by an LCD, LED, EL, or the like, and displays captured digital image data, decompressed recorded image data, and the like. The operation unit 123 externally performs a release key for giving a shooting instruction, a zoom key for setting a zoom position (Tele (Tele) to Wide (Wide)) of the zoom lens system 101b, function selection, and other various settings. It has buttons and so on. The CPU 121 executes an AF operation or the like when the release key is pressed halfway and RL-1 is turned on, and performs a shooting operation when the release key is fully pressed and RL-2 is turned on. In the EEPROM 130, adjustment data and the like used when the CPU 121 controls the operation of the digital camera are written.
[0050]
The above-described digital camera 100 (CPU 121) includes a recording mode in which image data obtained by imaging a subject is recorded on the PC card 150, a display mode in which image data recorded on the PC card 150 is displayed, and captured image data. Is provided directly on the display unit 122.
[0051]
FIG. 4 is a diagram illustrating an example of a specific configuration of the IPP 107. As shown in FIG. 4, the IPP 107 includes a color separation unit 1071 that separates digital image data input from the A / D converter 106 into R, G, and B color components, and separated R, G, and B images. A signal interpolation unit 1072 that interpolates data, a pedestal adjustment unit 1073 that adjusts the black level of each of the R, G, and B image data, and a white balance adjustment unit 1074 that adjusts the white level of each of the R and B image data , A digital gain adjustment unit 1075 that corrects R, G, and B image data with a gain set by the CPU 121, a gamma conversion unit 1076 that performs γ conversion of the R, G, and B image data, and an RGB image A matrix unit 1077 for separating data into color difference signals (Cb, Cr) and luminance signals (Y), and a video signal based on the color difference signals (Cb, Cr) and luminance signals (Y). A video signal processing unit 1078 to be output to the display unit 122, and a.
[0052]
Further, the IPP 107 passes through only a Y calculating unit 1079 that detects luminance data (Y) of image data after pedestal adjustment by the pedestal adjusting unit 1073, and a predetermined frequency component of the luminance data (Y) detected by the Y calculating unit 1079. The BPF 1080 to be output, the AF evaluation value circuit 1081 that outputs the integrated value of the luminance data (Y) that has passed through the BPF 1080 to the CPU 121 as an AF evaluation value, and the digital count value corresponding to the luminance data (Y) detected by the Y calculation unit 1079 AE evaluation value circuit 1082 that outputs to the CPU 121 as an AE evaluation value, a Y calculation unit 1083 that detects luminance data (Y) of each of the R, G, and B image data after adjustment by the white balance adjustment unit 1074, and Y The luminance data (Y) of each color detected by the calculation unit 1083 is counted, and the AWB of each color is counted. And AWB evaluation value circuit 1084 outputs the CPU 121 as a value, and a CPUI / F1085 is an interface with the CPU 121, and the DCTI / F1086 such an interface with the DCT108.
[0053]
The external AF sensor 136 in FIG. 1 is composed of a passive distance measuring sensor, and is used to measure the distance of the subject. FIG. 5 is a diagram showing a schematic configuration of the external AF sensor. The external AF sensor 136 includes a lens 151, photosensor arrays 152a (left side) and 152b (right side), and an arithmetic circuit (not shown). The principle of distance measurement of the external AF sensor 136 will be described with reference to FIGS. In FIG. 5, the distance to the subject is d, the distance between the lens 151 and the photo sensor array 152a (left side), 152b (right side) is f, and the width of the light input to the photo sensor array 152a is X1, X2, and light, respectively. The distance d from the front surface of the external AF sensor 136 to the subject can be calculated by d = B · f / (X1 + X2) by triangulation. FIG. 6 shows the subject images of the left and right photosensor arrays, and the arithmetic circuit integrates the light amounts of the subject images of the respective photosensor arrays and calculates the deviation of the left and right sensor data, thereby calculating the subject distance d. Calculate and output to the CPU 121.
[0054]
In this specification, the operation of detecting the in-focus position using the external AF sensor 136 is referred to as external AF, and the case of detecting the in-focus position using the CCD 103 is referred to as CCD-AF (internal AF). In the CCD-AF, the focus lens 101a is moved, the AF evaluation value indicating the contrast of the subject corresponding to the image signal output from the CCD 103 is sampled, and the hill-climbing servo system using the peak position of the AF evaluation value as the in-focus position. Is used. Performing AF using external AF and CCD-AF is called hybrid AF.
[0055]
Next, an operation example (operation example 1 and operation example 2) related to AF of the digital camera having the above configuration will be described. The operation example 1 shows an operation example when the CCD-AF and the external AF are executed substantially simultaneously, and the operation example 2 shows an operation example when the external AF is executed prior to the CCD-AF.
(Operation example 1)
An operation example 1 relating to AF of a digital camera will be described with reference to FIGS. FIG. 7 is a flowchart for explaining an operation example 1 regarding the AF of the digital camera executed under the control of the CPU 121.
[0056]
In FIG. 7, first, the CPU 121 determines whether or not the release key is pressed halfway and RL-1 is turned on (step S1). When the release key is pressed halfway and RL-1 is turned on, the CPU 121 determines the zoom position of the zoom lens system 101b (step S2) and sets the zoom position (focal length) of the zoom lens system 101b. Accordingly, the CCD-AF sampling conditions are set (step S3). The CPU 121 determines the zoom position by the number of drive pulses of the pulse motor 134 that drives the zoom lens system 101b.
[0057]
Here, the sampling conditions of the CCD-AF are as follows: (1) AF evaluation value sampling range when CCD-AF is executed (movement range of the focus lens system 101a), and (2) AF evaluation value by CCD-AF. There are the AF area range of the light receiving surface of the CCD 103 when sampling is performed, and (3) the sampling interval of the AF evaluation value with respect to the moving amount of the focus lens 101a when performing CCD-AF. The CPU 121 sets one or a plurality of sampling conditions (1) to (3) according to the zoom position (focal length) of the zoom lens system 01b.
[0058]
(1) AF evaluation value sampling range when CCD-AF is executed (movement range of the focus lens system 101a)
FIG. 8 is an explanatory diagram for explaining a sampling range (movement range of the focus lens system 101a) when executing CCD-AF. In the figure, the horizontal axis indicates the lens position (nearest to infinity), the vertical axis indicates the contrast of the subject (AF evaluation value), and a in the figure indicates the sampling range. By setting an appropriate CCD-AF sampling range (sampling width) according to the focal length, it is possible to achieve both the accuracy and speed of in-focus position detection. The CPU 121 sets the sampling range of the CCD-AF to be narrow and increases the speed of the CCD-AF when the required range of accuracy is wide enough for the external AF accuracy. On the other hand, the CPU 121 sets a wide sampling width of the CCD-AF in the case of tele that has insufficient capability with the accuracy of the external AF.
[0059]
(2) AF area range of the light receiving surface of the CCD 103 when the AF evaluation value is sampled by the CCD-AF
FIG. 9 is a diagram for explaining the AF area of the light receiving surface of the CCD 103. This figure shows the inside of the light receiving surface of the CCD 103, and the CPU 121 sets an AF area for acquiring an AF evaluation value within this light receiving surface. This figure shows a case in which the light receiving surface of the CCD 103 is divided into 15 horizontal parts and 10 vertical parts. The CPU 121 can set an AF area of any size within the light receiving surface of the CCD 103. By setting an appropriate AF area of the CCD-AF according to the focal length, it is possible to achieve both the accuracy and speed of in-focus position detection. The CPU 121 sets the entire screen as an AF area and samples the AF evaluation value for the entire screen when the subject area on the screen is considered to be wide, as shown in FIG. The AF evaluation value is sampled at a slow sampling period. On the other hand, in the case of a tele that seems to have a large area occupied by the subject on the screen, the CPU 121 sets only the center portion of the screen as the AF area as shown in FIG. Only the AF evaluation value is sampled, and the AF evaluation value is sampled at an early sampling period. In addition, since the sampling period of the CCD-AF is determined by the image processing time, if the range of the image to be processed is narrowed, sampling can be performed at a faster period accordingly.
[0060]
(3) Sampling interval of the AF evaluation value with respect to the moving amount of the focus lens system 101a when executing CCD-AF
FIG. 10 is an explanatory diagram for explaining the sampling interval of the AF evaluation value with respect to the movement amount of the focus lens system 101a of the CCD-AF. In the figure, the horizontal axis indicates the lens position (nearest to infinity), the vertical axis indicates the contrast of the subject (AF evaluation value), and b in the figure indicates the sampling interval of the AF evaluation value. By setting an appropriate CCD-AF sampling interval according to the focal length, it is possible to achieve both the accuracy and speed of in-focus position detection. For example, at a focal length with a deep focal depth, the CPU 121 increases the lens movement interval to increase the AF evaluation value sampling interval, and reduces the number of sampling points to increase the speed of the CCD-AF.
[0061]
Then, the CPU 121 sets the focus lens system 101a to the CCD-AF start position (reference position) (step S4). As the start position (reference position) of the CCD-AF, for example, the current position of the lens system can be used. This is because it is usually considered that the frequency of continuous shooting under the same conditions is high.
[0062]
Then, the CPU 121 starts the external AF and the CCD-AF simultaneously (step S5). In the external AF, the external AF sensor 136 performs distance measurement processing, measures the distance to the subject, and detects the in-focus position. In the CCD-AF, the focus lens system 101a is moved in the vicinity of the reference position, the AF evaluation value is acquired under the set sampling condition, and the focus position is detected.
[0063]
Then, the CPU 121 determines whether or not the external AF has ended (step S6). If the external AF has ended, the distance measurement result of the external AF corresponds to the start position (reference position) of the CCD-AF. It is determined whether or not the photographing distance to be different is a predetermined value or more (step S7). When the distance measurement result of the external AF differs from the shooting distance corresponding to the start position (reference position) of the CCD-AF by a predetermined value or more, the CPU 121 interrupts the CCD-AF and is measured by the external AF sensor 136. The focus lens system 101b is moved to a position corresponding to the distance (focus position) (step S8). Thereafter, CCD-AF is re-executed near the position (step S9).
[0064]
In step S10, the CPU 121 determines whether or not the CCD-AF has ended. If the CCD-AF has ended, the CPU 121 determines the focus position of the external AF and the CCD-AF based on the zoom position (focal length). Is determined as the final in-focus position (step S11).
[0065]
Here, a specific method for determining one of the focus position of the external AF and the focus position of the CCD-AF as the final focus position based on the zoom position will be described. CCD-AF generally has higher accuracy, but in the case of Wide, sufficient accuracy can be secured even as a result of external AF. Therefore, it is not necessary to prioritize CCD-AF for Wide. In the present embodiment, in the case of Wide, the one with the shorter subject distance corresponding to the in-focus position is determined as the final in-focus position, while in the case of Tele, the in-focus position of the CCD-AF is determined. Determine the final focus position. Note that, with reference to a point that can be in focus with the accuracy of external AF between Wide and Tele, this point is preferentially selected as “closer” on the wide side and CCD-AF on the Tele side. The above is processing when both the distance measurement results are reliable, and when the reliability of the results is low, the final focus position is determined in consideration of the information on the reliability of both. Is preferred.
[0066]
In FIG. 7, the CPU 121 moves the focus lens system 101a to the determined focus position (step S12). Thereafter, when the release key is fully pressed and RL-2 is turned on, a shooting operation is performed, and image data of the subject is captured and recorded in the PC card 150.
[0067]
FIG. 11 is a timing chart for explaining the execution timing of the external AF and the CCD-AF in the first operation example. (A) of the figure shows the timing when the distance measurement result of the external AF and the photographing distance corresponding to the start position (reference position) of the CCD-AF are different from each other by a predetermined value or more. In FIG. 6B, the distance measurement result of the external AF and the shooting distance corresponding to the start position (reference position) of the CCD-AF are different from each other by a predetermined value, and the CCD-AF is interrupted and measured by the external AF sensor 136. The case where the position corresponding to the determined distance is set as a new reference position and CCD-AF is executed again ((2)) is shown.
[0068]
(Operation example 2)
An operation example 2 relating to AF of the digital camera will be described with reference to FIGS. FIG. 12 is a flowchart for explaining an operation example 2 related to AF of the digital camera executed under the control of the CPU 121.
[0069]
In FIG. 12, first, when the power is turned on (step S21), the CPU 121 determines whether it is the external AF execution timing (step S22). As a result of the determination, if it is not the execution timing of the external AF, the process proceeds to step S24. On the other hand, when it is the execution timing of the external AF, the CPU 121 executes a distance measurement process using the external AF (step S23), and the external AF sensor 136 measures the distance to the subject and proceeds to step S24. To do.
[0070]
In step S24, the CPU 121 determines whether or not the release key is pressed halfway and RL-1 is turned on. If RL-1 is not ON, the process returns to step S22, and external AF distance measurement processing is performed at the external AF execution timing until RL-1 is turned ON. On the other hand, when RL-1 is turned on in step S24, the CPU 121 determines the zoom position of the zoom lens system 101b (step S25), and according to the zoom position (focal length) of the zoom lens system 101b. CCD-AF sampling conditions are set (step S26). The CPU 121 determines the zoom position by the number of drive pulses of the pulse motor 134 that drives the zoom lens system 101b. Since the sampling conditions of the CCD-AF are the same as those in the first embodiment, the description thereof is omitted.
[0071]
In step S27, the CPU 121 calculates the start position (reference position) of the CCD-AF based on the distance measurement result of the external AF. Here, a method for calculating the start position (reference position) of the CCD-AF based on the distance measurement result of the external AF will be described. For example, a method of predicting the reference position from the distance measurement results of the past two points of the external AF can be used. This makes it possible to determine whether the subject is approaching, moving away, or stopped.
[0072]
FIG. 13 is an explanatory diagram for explaining a case where the start position (reference position) of the CCD-AF is calculated from the distance measurement results of the last two points of the external AF. In this figure, Lccd is the predicted subject distance (CCD-AF reference position), L2 is the subject distance by the external AF immediately before the release operation, L1 is the subject distance by the external AF one time before L2, and t1 is the continuity. The interval between the numeric external AF and t2 indicates the time from the external AF to the release immediately before the release operation. The predicted subject distance (CCD-AF reference position) Lccd is calculated by the following equation. Then, the lens system position corresponding to the calculated predicted subject distance Lccd is determined as the start position (reference position) of the CCD-AF.
[0073]
Lccd = L2 + t2 × (L2-L1) / t1
For example, when t1 = t2, if the past two times are 2 m and 3 m, the next is predicted to be 4 m, while if the past two times is 4 m and 3 m, the next is predicted to be 2 m. Therefore, CCD-AF is performed at the position of the lens system corresponding to around 4 m and around 2 m, respectively.
[0074]
Here, the reference position of the CCD-AF is determined from the past two points, but time series data of the past three points or more may be used. Thereby, a finer moving object prediction becomes possible. For example, when determining the CCD-AF reference position from the past three points, it is possible to determine whether the subject is approaching, moving away, stopped, or swinging back and forth. For example, by comparing the first, second, second, and third subject distances, the acceleration component of the subject movement can also be detected. In this case, a method of approximating with a quadratic curve (such as a subject falling from above), a method of approximating with a trigonometric function (such as a subject on a swing), or the like can be used.
[0075]
Then, the CPU 121 moves the focus lens system 101a to the calculated CCD-AF start position (reference position) (step S28). After moving the focus lens system 101a to the reference position, external AF and CCD-AF are started simultaneously (step S29). In the external AF, the external AF sensor 136 measures the distance to the subject and detects the focus position. In the CCD-AF, the focus lens system 101a is moved in the vicinity of the reference position, the AF evaluation value is acquired under the set sampling condition, and the focus position is detected.
[0076]
Subsequently, the CPU 121 determines whether or not the external AF and the CCD-AF are finished (step S30). When the external AF and the CCD-AF are finished, the CPU 121 determines whether the external AF and the CCD-AF are finished based on the zoom position (focal length). Either the in-focus position detected by AF or the in-focus position detected by CCD-AF is determined as the final in-focus position (step S31). The method for determining either the in-focus position of the external AF or the in-focus position of the CCD-AF as the final in-focus position based on the zoom position (focal length) is the same as in the first operation example, and the description thereof is omitted. To do.
[0077]
Then, the CPU 121 moves the focus lens system 101a to the determined focus position (step S32). Thereafter, when the release key is fully pressed and RL-2 is turned on, a photographing operation is performed, and the image data of the subject is captured and recorded in the PC card 150.
[0078]
With reference to FIG. 14, the execution timing of the external AF and the CCD-AF in the operation example 2 will be described. FIG. 14 is a timing chart for explaining execution timings of the external AF and the CCD-AF in the second operation example. (A) in the figure is when the release is pressed at the execution timing of the external AF, (b) is when the release is pressed during the pause of the external AF, and (c) is the release during the external AF operation. When (1) is pressed, (d) shows the timing when the release is pressed during external AF operation (2).
[0079]
As shown in FIG. 6A, when the release is pressed at the external AF execution timing, the external AF and the CCD-AF are executed at the release ON timing. Also, as shown in FIG. 5B, when the release is pressed while the external AF is stopped, the external AF is stopped and the external AF and CCD-AF are executed at the release ON timing. . Further, when the release is pressed during the external AF operation, the timing shown in FIG. 10C and the timing shown in FIG. 10D are considered, and any timing may be used.
[0080]
When the release is pressed during the external AF operation, the external AF (3) may be stopped at the time of release and re-driven as shown in FIG. In this case, the data of the external AF (3) is not acquired, and the final focus position is determined based on the data of the external AF (4) and the result of the CCD-AF.
[0081]
If the release button is pressed during the external AF operation, as shown in FIG. 4D, the external AF (3) is not interrupted even at the time of release, and the external AF (3) data and the CCD- The final in-focus position is determined based on the result of AF. Usually, since the external AF operation time is 0.1 second or less, there is no problem in practical use even in the method (d). However, when the subject is at low brightness, the external AF takes about 0.1 seconds, so the method (c) is more reliable.
[0082]
In step S28, if the distance measurement result detected by the external AF and the shooting distance corresponding to the in-focus position detected by the CCD-AF differ by a predetermined value or more, as shown in FIG. The CCD-AF may be performed again by changing the start position (reference position) of the CCD-AF.
[0083]
FIG. 16 is an explanatory diagram for explaining the second operation example. In the figure, the vertical axis represents the contrast (AF evaluation value), and the horizontal axis represents the lens position (nearest to infinite). First, the in-focus position is detected by external AF, and then sampling is performed by CCD-AF in the vicinity of the detected in-focus position to detect the in-focus position. Then, the final focusing position is determined based on both focusing positions.
[0084]
As described above, according to the present embodiment, the zoom lens system is provided, the external AF uses the external AF sensor 136 to detect the focus position, and the CCD-AF moves the focus lens 101a. The AF evaluation value indicating the contrast of the subject according to the image signal output from the CCD 103 is sampled, the peak position of the AF evaluation value is detected as the in-focus position, and the in-focus position detected by the CCD-AF and the external AF In the digital camera that determines the final in-focus position based on the above, the sampling condition for sampling the AF evaluation value with the CCD-AF is set according to the focal length of the lens system (zoom lens system) Therefore, it is possible to set an appropriate CCD-AF sampling condition according to the focus position, and to a system equipped with a zoom lens system. It can have, it is possible to highly accurate and high-speed focus position detection.
[0085]
In the present embodiment, since the sampling range for sampling the AF evaluation value is changed as the CCD-AF sampling condition, the sampling for sampling an appropriate AF evaluation value according to the focal length is performed. The range can be set, and it is possible to achieve both the accuracy and speed of in-focus position detection.
[0086]
In the present embodiment, as the CCD-AF sampling condition, the size (sampling period) of the AF area of the light receiving screen of the CCD 103 for sampling the AF evaluation value is changed. It is possible to achieve both detection accuracy and speed.
[0087]
In the present embodiment, the sampling interval for sampling the AF evaluation value is changed as the CCD-AF sampling condition, so that it is possible to achieve both the accuracy and speed of in-focus position detection. Become.
[0088]
In the present embodiment, the final focus position is determined based on the detection result detected by the external AF or the CCD-AF based on the focal length of the lens system. The focus position can be detected.
[0089]
In addition, since the digital camera of the present embodiment uses a passive distance measuring sensor as the external AF sensor, it is possible to reduce the size, reduce the cost, and simplify the processing.
[0090]
Note that the present invention is not limited to the above-described embodiment, and can be appropriately modified and executed without changing the gist of the invention. For example, in the present embodiment, an example in which the automatic focusing device and the automatic focusing method according to the present invention are applied to a digital camera has been described. It can also be applied to an input device or the like. In short, the present invention can be applied to all apparatuses that perform AF when inputting an image.
[0091]
【The invention's effect】
  As described above, according to the automatic focusing device of the first aspect, the lens system including the focus lens system and the zoom lens system and the subject image are formed at predetermined positions, and the imaging unit is connected via the lens system. The input subject image is picked up and image data is output. The first focus position detection means uses the image pickup means to move the lens system and sample the contrast of the subject to detect the focus position. The second focus position detection means uses a photoelectric conversion means different from the imaging means to detect the distance to the subject to detect the focus position of the lens system, and the focus position determination means is the first focus position determination means. Based on the in-focus position detected by the in-focus position detecting means and the second in-focus position detecting means, a final in-focus position is determined,Of the first in-focus position detecting meansSampling range for detecting the contrast of the subjectNarrower than the whole area, andThe distance from the subject detected by the second focus position detecting meansAs the range before and after the corresponding sampling position, depending on the focal length of the lens system,Since the lens system is set to be narrow when the lens system is wide and is set to be wide as the telephoto side is set, the sampling range of the first focus position detecting means can be set according to the focus position, and zooming can be performed. Even in a system including a lens system, it is possible to detect a focus position with high accuracy and high speed.
[0092]
  According to the automatic focusing device according to claim 2, in the automatic focusing device according to claim 1,Furthermore, the size of the area in the light receiving screen of the image pickup means for detecting the contrast of the subject is set to be large when the lens system is wide, and is set to be small as the distance becomes telephoto. In addition to the effect of the automatic focusing device according to item 1, it is possible to achieve both the accuracy and speed of focus position detection.
[0093]
  According to an automatic focusing device according to claim 3,1In the automatic focusing device according toFurther, since the sampling interval for detecting the contrast of the subject is set to be large when the lens system is wide and is set to be small as the distance becomes tele, the effect of the automatic focusing device according to claim 1 is achieved. In addition, it is possible to achieve both the accuracy and speed of focus position detection.
[0099]
  Claims4According to the automatic focusing device according to claim 1, claims 1 to3In the automatic focusing device according to any one of the above, the in-focus position determining unit is configured to display the in-focus result of the first in-focus position detecting unit or the second in-focus position detecting unit based on the focal length of the lens system. Since it is determined to be the final in-focus position, claims 1 to claim3In addition to the effect of the automatic focusing device according to any one of the above, it is possible to detect the focusing position with higher accuracy.
[0100]
  Claims5According to the automatic focusing device according to claim4In the automatic focusing device according to the present invention, the focusing position determination means includes a focusing position detected by the first focusing position detection means and the second focusing position detection means when the lens system is wide. In this case, it is determined that a subject having a shorter subject distance corresponding to the in-focus position is determined as the final in-focus position.4In addition to the effect of the automatic focusing device according to the above, even when the lens system is wide, it is possible to detect the focusing position with higher accuracy.
[0101]
  Claims6According to the automatic focusing device according to claim4In the automatic focusing apparatus according to the present invention, the focusing position determination means determines the focusing position detected by the first focusing position detection means as the final focusing position when the lens system is tele. The claims4In addition to the effect of the automatic focusing device according to the above, even when the lens system is tele, it is possible to detect the focusing position with higher accuracy.
[0103]
  Claims7According to the automatic focusing device according to claim 1, in the automatic focusing device according to any one of claims 1 to 6, prior to the operation of the focusing operation member for instructing the operation of the focusing operation, At a predetermined time interval, the second in-focus position detecting means executes a distance measuring process for measuring the distance from the subject. When the in-focus operation member is operated, the first in-focus position detecting means. Is the in-focus position detected by the second in-focus position detecting means.The range before and after the sampling position corresponding to the distance to the subject is the sampling rangeSince the operation of detecting the in-focus position is executed, in addition to the effect of the automatic in-focus device according to any one of claims 1 to 6, the in-focus position can be detected at a higher speed. It becomes.
[0104]
  Claims8According to the digital camera according to claim 1, claims 1 to7Since the automatic focusing device according to any one of the above is applied, it is possible to detect the in-focus position with high accuracy and high speed even in a digital camera including a zoom lens system.
[0105]
  Claims9According to the portable information input device according to claim 1, claims 1 to7Since the automatic focusing device according to any one of the above is applied, even in a portable information input device equipped with a zoom lens system, it is possible to detect a focusing position with high accuracy and high speed.
[0106]
  Claims10According to the in-focus position detection method, in the first step, the photoelectric conversion means different from the image pickup means is used to detect the distance to the subject to detect the in-focus position of the lens system. In this step, the imaging unit is used to move the lens system and the contrast of the subject is sampled to detect the in-focus position. In the third step, detection is performed in the first step and the second step. The final focus position is determined based on the focused position,By the second stepSampling range for detecting the contrast of the subjectNarrower than the whole area, andThe distance to the subject detected in the first stepAs the range before and after the corresponding sampling position, depending on the focal length of the lens system,Since the lens system is set to be narrow when the lens system is wide, and is set to be wide as the distance becomes tele, even in a system equipped with a zoom lens system, it is possible to detect the in-focus position with high accuracy and high speed.
[0107]
  Claims11According to the in-focus position detection method,10In the in-focus position detection method, the size of the area in the light receiving screen of the imaging means for detecting the contrast of the subject is set to be large when the lens system is wide, Since it is set to be small, in addition to the effect of the focus position detection method according to the eleventh aspect, it is possible to achieve both the accuracy and speed of focus position detection.
[0108]
  Claims12According to the in-focus position detection method,10In the in-focus position detection method according to the present invention, the sampling interval for detecting the contrast of the subject is set larger when the lens system is wide, and smaller as the distance becomes telephoto. Term10In addition to the effect of the in-focus position detection method, it is possible to achieve both the accuracy and speed of in-focus position detection.
[0114]
  Claims13According to the in-focus position detection method,10~ Claim12In the in-focus position detection method, in the third step, the in-focus result detected in the first step or the second step is determined as the final in-focus position based on the focal length of the lens system. So that the claims10~ Claim12In addition to the effect of the focus position detection method according to any one of the above, it is possible to detect the focus position with higher accuracy.
[0115]
  Claims14According to the in-focus position detection method,13In the in-focus position detection method, in the third step, when the lens system is wide, the in-focus position detected in the first step and the second step corresponds to the in-focus position. Since it is determined that the one with the shortest subject distance is the final focus position,13In addition to the effect of the in-focus position detecting method, it is possible to detect the in-focus position with higher accuracy even when the lens system is wide.
[0116]
  Claims15According to the in-focus position detection method,13In the in-focus position detection method according to claim 3, in the third step, when the lens system is tele, the in-focus position detected in the second step is determined as the final in-focus position. Term13In addition to the effect of the automatic focusing device according to the above, even when the lens system is tele, it is possible to detect the focusing position with higher accuracy.
[0118]
  Claims16According to the automatic focusing apparatus according to the first aspect, in the first step, prior to the operation of the focusing operation operation member for instructing the focusing operation, the photoelectric conversion unit different from the imaging unit is provided at a predetermined time interval. The distance to the subject is detected, and in the second step, when the focusing operation member is operated, the reference position is calculated using the distance measurement result in the first step, andCoveredSampling range for detecting the contrast of the subjectNarrower than the whole area, andThe distance to the subject detected in the first stepAs the range before and after the corresponding sampling position, depending on the focal length of the lens system,When the lens system is wide, the lens system is set to be narrow, and the lens system is set to be wide as it becomes tele. In the third process, the imaging system is used to adjust the lens system in the vicinity of the reference position calculated in the second process. The focus position is detected within the set sampling range by moving, and in the fourth step, the photoelectric conversion means is used to detect the distance to the subject and the focus position of the lens system is detected. In step 5, the final focus position is determined based on the focus positions detected in the third step and the fourth step, and the third step and the fourth step are executed substantially simultaneously. .
[0119]
  Claims17According to a computer readable recording medium according to claim10~ Claim16Since the program for making a computer perform each process of invention of any one of these is recorded, the system provided with the zoom lens system by executing the program currently recorded on the recording medium with a computer In this case, it is possible to detect the in-focus position with high accuracy and high speed.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a digital camera according to an embodiment.
FIG. 2 is a diagram illustrating an example of a relationship between a pulse number Zp of a pulse motor (motor equally divided into 18 divisions) and a lens extension amount (mm) of a zoom lens system.
FIG. 3 is a diagram illustrating an example of a relationship between a shooting distance (1 / L) and a lens extension amount (mm) of a zoom lens system when the zoom position is Wide to Tele.
4 is a diagram illustrating an example of a specific configuration of the IPP in FIG. 1. FIG.
5 is a diagram showing a schematic configuration of the external AF sensor of FIG. 1. FIG.
FIG. 6 is an explanatory diagram for explaining a distance measuring principle of an external AF sensor.
FIG. 7 is a flowchart for explaining an operation example 1 regarding AF of the digital camera.
FIG. 8 is an explanatory diagram for explaining a sampling range when performing CCD-AF.
FIG. 9 is a diagram for explaining an AF area of a light receiving surface of a CCD.
FIG. 10 is an explanatory diagram for explaining a sampling interval of AF evaluation values with respect to a movement amount of a focus lens system of CCD-AF.
FIG. 11 is a timing chart for explaining execution timings of external AF and CCD-AF in an operation example 1;
FIG. 12 is a flowchart for explaining an operation example 2 regarding AF of the digital camera.
FIG. 13 is an explanatory diagram for explaining a case where a CCD-AF start position (reference position) is calculated from distance measurement results of the last two points of an external AF.
FIG. 14 is a timing chart for explaining execution timings of external AF and CCD-AF in an operation example 2;
FIG. 15 is a timing chart for explaining execution timings of external AF and CCD-AF in an operation example 2;
FIG. 16 is an explanatory diagram for explaining an operation example 2;
FIG. 17 is an explanatory diagram for explaining a conventional CCD-AF system.
FIG. 18 is an explanatory diagram for explaining a conventional CCD-AF system.
[Explanation of symbols]
100 digital camera
101 Lens system
101a Focus lens system
101b Zoom lens system
102 Mechanical mechanism including autofocus
103 CCD (Charge Coupled Device)
104 CDS (correlated double sampling) circuit
105 Variable Gain Amplifier (AGC Amplifier)
106 A / D converter
107 IPP (Image Pre-Processor)
108 DCT (Discrete Cosine Transform)
109 Coder (Huffman Encoder / Decoder)
110 MCC (Memory Card Controller)
111 RAM (internal memory)
112 PC card interface
121 CPU
122 Display section
123 Operation unit
125 motor driver
126 SG Department
127 Strobe
128 battery
129 DC-DC converter
130 EEPROM
131 Focus driver
132 Pulse motor
133 Zoom driver
134 Pulse motor
135 Motor driver
136 External AF sensor
150 PC card
151 lens
152 Photosensor Array
1071 Color separation unit
1072 Signal interpolation unit
1073 Pedestal adjustment unit
1074 White balance adjustment section
1075 Digital gain adjustment unit
1076 γ converter
1077 Matrix part
1078 Video signal processor
1079 Y operation part
1080 BPF
1081 AF evaluation value circuit
1082 AE evaluation value circuit
1083 Y operation part
1084 AWB evaluation value circuit
1085 CPU I / F
1086 DCTI / F
1075r, 1075g, 1075b multiplier

Claims (17)

被写体像を所定位置に結像する、フォーカスレンズ系およびズームレンズを含むレンズ系と、
前記レンズ系を介して入力される被写体像を撮像して画像データを出力する撮像手段と、
前記撮像手段を使用して、前記レンズ系を移動させて被写体のコントラストをサンプリングして合焦位置を検出する第1の合焦位置検出手段と、
前記撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出して前記レンズ系の合焦位置を検出する第2の合焦位置検出手段と、
前記第1の合焦位置検出手段および前記第2の合焦位置検出手段で検出された合焦位置に基づいて、最終的な合焦位置を決定する合焦位置決定手段と、を備え、
前記合焦位置決定手段は、前記第1の合焦位置検出手段の被写体のコントラストを検出する際のサンプリング範囲を、全域より狭く、かつ前記第2の合焦位置検出手段によって検出された被写体との距離に相当するサンプリング位置の前後の範囲として、前記レンズ系の焦点距離に応じて、前記レンズ系がワイドの場合には狭く設定し、テレ側になるに従い広く設定することを特徴とする自動合焦装置。
A lens system including a focus lens system and a zoom lens that forms a subject image at a predetermined position;
Imaging means for imaging a subject image input via the lens system and outputting image data;
A first in-focus position detecting unit that detects the in-focus position by sampling the contrast of the subject by moving the lens system using the imaging unit;
Second focus position detection means for detecting a focus position of the lens system by detecting a distance to a subject using a photoelectric conversion means different from the imaging means;
A focus position determination means for determining a final focus position based on the focus position detected by the first focus position detection means and the second focus position detection means;
The in-focus position determining means has a sampling range for detecting the contrast of the object of the first in-focus position detecting means that is narrower than the entire area and the object detected by the second in-focus position detecting means. The range before and after the sampling position corresponding to the distance is set to be narrow when the lens system is wide, and wide as the telephoto side is set , according to the focal length of the lens system. Focusing device.
さらに、被写体のコントラストを検出するための前記撮像手段の受光画面内のエリアの大きさを、前記レンズ系がワイドの場合には大きく設定し、テレになるに従い小さく設定することを特徴とする請求項1に記載の自動合焦装置。  Further, the size of the area in the light receiving screen of the imaging means for detecting the contrast of the subject is set to be large when the lens system is wide, and is set to be small as the distance becomes tele. Item 2. The automatic focusing device according to Item 1. さらに、被写体のコントラストを検出する際のサンプリング間隔を、前記レンズ系がワイドの場合には大きく設定し、テレになるに従い小さく設定することを特徴とする請求項1に記載の自動合焦装置。  2. The automatic focusing device according to claim 1, wherein the sampling interval for detecting the contrast of the subject is set to be large when the lens system is wide, and is set to be small as telephoto. 前記合焦位置決定手段は、前記レンズ系の焦点距離に基づき、前記第1の合焦位置検出手段または前記第2の合焦位置検出手段で検出された合焦位置を最終的な合焦位置と決定することを特徴とする請求項1〜請求項3のいずれか1つに記載の自動合焦装置。  The in-focus position determining unit determines the in-focus position detected by the first in-focus position detecting unit or the second in-focus position detecting unit based on the focal length of the lens system as a final in-focus position. The automatic focusing device according to claim 1, wherein the automatic focusing device is determined. 前記合焦位置決定手段は、前記レンズ系がワイドの場合には、前記第1の合焦位置検出手段および前記第2の合焦位置検出手段で検出された合焦位置のうち、当該合焦位置に対応する被写体距離が近い方を最終の合焦位置と決定することを特徴とする請求項4に記載の自動合焦装置。  When the lens system is wide, the in-focus position determining means is the in-focus position among the in-focus positions detected by the first in-focus position detecting means and the second in-focus position detecting means. The automatic focusing device according to claim 4, wherein the object focusing distance corresponding to the position is determined as the final focusing position. 前記合焦位置決定手段は、前記レンズ系がテレの場合には、前記第1の合焦位置検出手段で検出された合焦位置を最終の合焦位置と決定することを特徴とする請求項4に記載の自動合焦装置。  The in-focus position determining means determines the in-focus position detected by the first in-focus position detecting means as a final in-focus position when the lens system is tele. 4. The automatic focusing device according to 4. 合焦動作の動作を指示するための合焦動作操作部材の操作に先行して、所定の時間間隔で前記第2の合焦位置検出手段は被写体との距離を測距する測距処理を実行し、前記合焦動作操作部材が操作された場合には、前記第1の合焦位置検出手段は、前記第2の合焦位置検出手段で検出された被写体との距離に相当するサンプリング位置の前後の範囲をサンプリング範囲として合焦位置を検出する動作を実行することを特徴とする請求項1〜請求項6のいずれか1つに記載の自動合焦装置。Prior to the operation of the focusing operation operation member for instructing the operation of the focusing operation, the second focusing position detection means executes a ranging process for measuring the distance from the subject at a predetermined time interval. When the in-focus operation member is operated, the first in-focus position detecting means has a sampling position corresponding to the distance from the subject detected by the second in-focus position detecting means . The automatic focusing device according to any one of claims 1 to 6, wherein an operation of detecting a focusing position is performed using the front and rear ranges as sampling ranges . 請求項1〜請求項のいずれか1つに記載の自動合焦装置を適用したことを特徴とするデジタルカメラ。A digital camera to which the automatic focusing device according to any one of claims 1 to 7 is applied. 請求項1〜請求項のいずれか1つに記載の自動合焦装置を適用したことを特徴とする携帯情報入力装置。A portable information input device to which the automatic focusing device according to any one of claims 1 to 7 is applied. フォーカスレンズ系およびズームレンズ系を含むレンズ系の被写体に対する合焦位置を検出する合焦位置検出方法において、
撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出して前記レンズ系の合焦位置を検出する第1の工程と、
前記撮像手段を使用して、前記レンズ系を移動させて被写体のコントラストをサンプリングして合焦位置の検出を行う第2の工程と、
前記第1の工程とおよび前記第2の工程で検出された合焦位置に基づいて、最終的な合焦位置を決定する第3の工程と、を含み、
前記第3の工程は、前記第2の工程による被写体のコントラストを検出する際のサンプリング範囲を、全域より狭く、かつ前記第1の工程によって検出された被写体との距離に相当するサンプリング位置の前後の範囲として、前記レンズ系の焦点距離に応じて、前記レンズ系がワイドの場合には狭く設定し、テレになるに従い広く設定することを特徴とする合焦位置検出方法。
In a focus position detection method for detecting a focus position with respect to a subject of a lens system including a focus lens system and a zoom lens system,
A first step of detecting a focus position of the lens system by detecting a distance from a subject using a photoelectric conversion unit different from the imaging unit;
A second step of detecting the in-focus position by sampling the contrast of the subject by moving the lens system using the imaging means;
And a third step of determining a final in-focus position based on the in-focus position detected in the first step and the second step,
In the third step, the sampling range when detecting the contrast of the subject in the second step is narrower than the entire region, and before and after the sampling position corresponding to the distance from the subject detected in the first step. The in-focus position detection method is characterized in that , depending on the focal length of the lens system, the range is set to be narrow when the lens system is wide and to be wide as telephoto.
さらに、被写体のコントラストを検出するための前記撮像手段の受光画面内のエリアの大きさを、前記レンズ系がワイドの場合には大きく設定し、テレになるに従い小さく設定することを特徴とする請求項10に記載の合焦位置検出方法。Further, the size of the area in the light receiving screen of the image pickup means for detecting the contrast of the subject is set to be large when the lens system is wide, and is set to be small as the distance becomes tele. Item 11. The focus position detection method according to Item 10 . さらに、被写体のコントラストを検出する際の、サンプリング間隔を、前記レンズ系がワイドの場合には大きく設定し、テレになるに従い小さく設定することを特徴とする請求項10に記載の合焦位置検出方法。11. The in-focus position detection according to claim 10 , wherein the sampling interval for detecting the contrast of the subject is set to be large when the lens system is wide, and is set to be small as the distance is telephoto. Method. 前記第3の工程では、前記レンズ系の焦点距離に基づき、前記第1の工程または前記第2の工程で検出された合焦結果を最終的な合焦位置と決定することを特徴とする請求項11〜請求項12のいずれか1つに記載の合焦位置検出方法。In the third step, the focus result detected in the first step or the second step is determined as a final focus position based on the focal length of the lens system. The in-focus position detection method according to any one of Items 11 to 12 . 前記第3の工程では、前記レンズ系がワイドの場合には、前記第1の工程および前記第2の工程で検出された合焦位置のうち、当該合焦位置に対応する被写体距離が近い方を最終の合焦位置と決定することを特徴とする請求項13に記載の合焦位置検出方法。In the third step, when the lens system is wide, one of the in-focus positions detected in the first step and the second step that has a shorter subject distance corresponding to the in-focus position. 14. The focus position detection method according to claim 13 , wherein the final focus position is determined. 前記第3の工程では、前記レンズ系がテレの場合には、前記第2の工程で検出された合焦位置を最終の合焦位置と決定することを特徴とする請求項13に記載の合焦位置検出方法。14. The focusing method according to claim 13 , wherein in the third step, when the lens system is a telephoto lens, the focusing position detected in the second step is determined as a final focusing position. Focus position detection method. フォーカスレンズ系を含むレンズ系の被写体に対する合焦位置を検出する合焦位置検出方法において、
合焦動作を指示するための合焦動作操作部材の操作に先行して、所定の時間間隔で撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出する第1の工程と、
前記合焦動作操作部材が操作された場合には、前記第1の工程の測距結果を使用して基準位置を算出するとともに、被写体のコントラストを検出する際のサンプリング範囲を、全域より狭く、かつ前記第1の工程によって検出された被写体との距離に相当するサンプリング位置の前後の範囲として、前記レンズ系の焦点距離に応じて、前記レンズ系がワイドの場合には狭く設定し、テレになるに従い広く設定する第の工程と、
前記撮像手段を使用して、前記第2の工程で算出された基準位置の近傍で、前記レンズ系を移動させて前記設定されたサンプリング範囲で合焦位置の検出を行う第3の工程と、
前記光電変換手段を使用して、被写体との距離を検出して前記レンズ系の合焦位置を検出する第4の工程と、
前記第3の工程および前記第4の工程で検出された合焦位置に基づいて、最終的な合焦位置を決定する第5の工程と、
を含み、
前記第3の工程と前記第4の工程とを略同時に実行することを特徴とする合焦位置検出方法。
In a focus position detection method for detecting a focus position with respect to a subject of a lens system including a focus lens system,
A first step of detecting the distance to the subject using a photoelectric conversion means different from the imaging means at a predetermined time interval prior to the operation of the focusing operation operation member for instructing the focusing operation; ,
When the focusing operation member is operated, the reference position is calculated using the distance measurement result of the first step, and the sampling range for detecting the contrast of the subject is narrower than the entire area. In addition, the range before and after the sampling position corresponding to the distance to the subject detected in the first step is set to be narrow when the lens system is wide according to the focal length of the lens system, A second step that is set wider as
A third step of detecting an in-focus position within the set sampling range by moving the lens system in the vicinity of the reference position calculated in the second step using the imaging means;
A fourth step of detecting the in-focus position of the lens system by detecting the distance to the subject using the photoelectric conversion means;
A fifth step of determining a final focus position based on the focus position detected in the third step and the fourth step;
Including
The in-focus position detecting method, wherein the third step and the fourth step are performed substantially simultaneously.
請求項10〜請求項16のいずれか1つに記載の発明の各工程をコンピュータに実行させるためのプログラムが記録されていることを特徴とするコンピュータが読取可能な記録媒体。A computer-readable recording medium on which a program for causing a computer to execute each step of the invention according to any one of claims 10 to 16 is recorded.
JP2000058838A 2000-03-03 2000-03-03 Automatic focusing device, digital camera, portable information input device, focusing position detection method, and computer-readable recording medium Expired - Fee Related JP3820076B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000058838A JP3820076B2 (en) 2000-03-03 2000-03-03 Automatic focusing device, digital camera, portable information input device, focusing position detection method, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000058838A JP3820076B2 (en) 2000-03-03 2000-03-03 Automatic focusing device, digital camera, portable information input device, focusing position detection method, and computer-readable recording medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006135856A Division JP4555255B2 (en) 2006-05-15 2006-05-15 Automatic focusing device, digital camera, portable information input device, focusing position detection method, and computer-readable recording medium

Publications (2)

Publication Number Publication Date
JP2001249267A JP2001249267A (en) 2001-09-14
JP3820076B2 true JP3820076B2 (en) 2006-09-13

Family

ID=18579374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000058838A Expired - Fee Related JP3820076B2 (en) 2000-03-03 2000-03-03 Automatic focusing device, digital camera, portable information input device, focusing position detection method, and computer-readable recording medium

Country Status (1)

Country Link
JP (1) JP3820076B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4540800B2 (en) * 2000-05-23 2010-09-08 オリンパス株式会社 Ranging device
US6549729B1 (en) * 2001-11-28 2003-04-15 Hewlett Packard Development Company, L.P. Camera that operates in accordance with the speed requirements of the photographer
US6895181B2 (en) 2002-08-27 2005-05-17 Olympus Corporation Camera and distance measuring method thereof
JP4478377B2 (en) 2002-09-03 2010-06-09 キヤノン株式会社 Automatic focusing method and imaging apparatus
JP2004240054A (en) 2003-02-04 2004-08-26 Olympus Corp Camera
US7515201B2 (en) 2004-06-16 2009-04-07 Hoya Corporation Focus detection method and focus detection apparatus
US7502065B2 (en) 2004-06-16 2009-03-10 Hoya Corporation Focus detection method and focus detection apparatus
US7526192B2 (en) 2004-10-07 2009-04-28 Hoya Corporation Focus detection method and focus detection apparatus
JP4591325B2 (en) * 2005-01-28 2010-12-01 カシオ計算機株式会社 Imaging apparatus and program
JP2007010898A (en) * 2005-06-29 2007-01-18 Casio Comput Co Ltd Imaging apparatus and program therefor
JP4727534B2 (en) * 2006-08-28 2011-07-20 富士フイルム株式会社 Imaging device
JP2009008842A (en) * 2007-06-27 2009-01-15 Fujifilm Corp Photographing system, photographing device, method and program
JP4801013B2 (en) * 2007-07-02 2011-10-26 富士フイルム株式会社 Imaging device
JP5682265B2 (en) * 2010-12-01 2015-03-11 株式会社リコー Ranging device and imaging device
JP6087617B2 (en) * 2012-12-21 2017-03-01 キヤノン株式会社 Imaging apparatus and control method thereof

Also Published As

Publication number Publication date
JP2001249267A (en) 2001-09-14

Similar Documents

Publication Publication Date Title
US6430368B1 (en) Autofocus apparatus
JP4980982B2 (en) Imaging apparatus, imaging method, focus control method, and program
US7764321B2 (en) Distance measuring apparatus and method
US20190086768A1 (en) Automatic focusing apparatus and control method therefor
US8300137B2 (en) Image sensing apparatus providing driving direction of focus lens for attaining in-focus state and control method therefor
JP3820076B2 (en) Automatic focusing device, digital camera, portable information input device, focusing position detection method, and computer-readable recording medium
JP4543602B2 (en) camera
JP3761383B2 (en) Automatic focusing device, camera, portable information input device, focusing position detection method, and computer-readable recording medium
US7710492B2 (en) Imaging device and imaging method for performing automatic focus detection
JP4748375B2 (en) IMAGING DEVICE, IMAGE REPRODUCING DEVICE, AND PROGRAM THEREOF
JP4555255B2 (en) Automatic focusing device, digital camera, portable information input device, focusing position detection method, and computer-readable recording medium
JP2007133301A (en) Autofocus camera
US8098288B2 (en) Imaging apparatus and method of controlling imaging
JP2009098167A (en) Imaging device and program of the same
JP2001221945A (en) Automatic focusing device
JP2001255451A (en) Automatic focusing device, digital camera and portable information input device
JP4612512B2 (en) Automatic focusing device, camera, portable information input device, focusing position detection method, and computer-readable recording medium
JP4907956B2 (en) Imaging device
JP3795723B2 (en) Automatic focusing device, digital camera, portable information input device and focusing position detection method
JP2004085964A (en) Automatic focusing device, digital camera, and portable information input device
JP2006157604A (en) Camera apparatus and automatic photographing control program
JP3914367B2 (en) Automatic focusing device, digital camera, and portable information input device
JP2004151183A (en) Automatic focusing device, digital camera and portable information terminal equipment equipped with the automatic focusing device
US8073319B2 (en) Photographing method and photographing apparatus based on face detection and photography conditions
JP2005215495A (en) Image photographing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040712

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20050325

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20050627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060616

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090623

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100623

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110623

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110623

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120623

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130623

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees