JP3914367B2 - Automatic focusing device, digital camera, and portable information input device - Google Patents

Automatic focusing device, digital camera, and portable information input device Download PDF

Info

Publication number
JP3914367B2
JP3914367B2 JP2000064200A JP2000064200A JP3914367B2 JP 3914367 B2 JP3914367 B2 JP 3914367B2 JP 2000064200 A JP2000064200 A JP 2000064200A JP 2000064200 A JP2000064200 A JP 2000064200A JP 3914367 B2 JP3914367 B2 JP 3914367B2
Authority
JP
Japan
Prior art keywords
focus position
subject
focus
ccd
lens system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000064200A
Other languages
Japanese (ja)
Other versions
JP2001255453A (en
Inventor
憲昭 尾島
純一 篠原
達敏 北島
彰宏 吉田
茂 入沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2000064200A priority Critical patent/JP3914367B2/en
Publication of JP2001255453A publication Critical patent/JP2001255453A/en
Application granted granted Critical
Publication of JP3914367B2 publication Critical patent/JP3914367B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、自動合焦装置、デジタルカメラ、および携帯情報入力装置に関し、詳細には、外部AFとCCD−AFで合焦位置の検出を行う自動合焦装置、デジタルカメラ、および携帯情報入力装置に関する。
【0002】
【従来の技術】
従来の電子スチルカメラのAF方式としては、CCDもしくはフォーカスレンズを光軸方向に駆動しながらCCDに蓄積される輝度信号によりピントのピークを見つけるCCD−AF方式か、三角測量方式の自動焦点調節機構が単独で使用されていた。
【0003】
【発明が解決しようとする課題】
しかしながら、上記CCD−AF方式は、図15に示すように、無限遠から最至近まで、CCDまたはフォーカスレンズを駆動して、ピントの山を見つける方式であるため、合焦位置を検出するまでに時間がかかるという問題がある。上述の問題を解決するために、CCD−AF方式では、図16(a)に示すように、粗サンプリングを無限遠から最至近まで行って概略の合焦位置を検出し、つづいて、図16(b)に示すように、概略の合焦位置近傍で細かいサンプリングを行って最終的な合焦位置を検出する方式も提案されている。かかる方式によれば、若干合焦位置の検出時間を短縮できるが、十分とは言えない。
【0004】
また、CCD−AF方式は、ピントを合わせたいエリアに高輝度な被写体(電球、ろうそくの炎、反射している看板など)があると、ピントの山を発見できず、疑合焦してしまうという問題がある。また、上述の三角測量方式では、至近距離側での測距のパララックスずれが発生しやすく、また、望遠側での性能が低いなどの問題がある。
【0005】
本発明は、上記に鑑みてなされたものであり、短時間でかつ高輝度被写体が存在しても正確に合焦位置を検出することが可能な自動合焦装置、デジタルカメラ、および携帯情報入力装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
上述した課題を解決するために、請求項1にかかる発明は、被写体像を所定位置に結像するフォーカスレンズ系を含むレンズ系と、前記レンズ系を介して入力される被写体像を撮像して画像データを出力する撮像手段と、前記撮像手段を使用して、前記レンズ系を無限側から至近側に移動させて被写体のコントラストをサンプリングして合焦位置を検出する第1の合焦位置検出手段と、前記撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出して前記レンズ系の合焦位置を検出する第2の合焦位置検出手段と、前記第1の合焦位置検出手段は、前記第2の合焦位置検出手段で検出された合焦位置の近傍で被写体のコントラストをサンプリングし、前記第1の合焦位置検出手段で前記合焦位置の近傍でサンプリングされた被写体のコントラストが、前記レンズ系の移動開始位置である前記無限側から移動終了位置である前記至近側までの移動に伴って上昇を続けるように変化し、前記レンズ系の移動終了位置で最大となる場合には、前記第2の合焦位置検出手段で検出された合焦位置を最終的な合焦位置に決定し、それ以外の位置で前記被写体のコントラストが最大となる場合には、前記被写体のコントラストが最大となる位置を最終的な合焦位置に決定する合焦位置決定手段と、を備えたものである。
【0007】
上記発明によれば、レンズ系は被写体像を所定位置に結像し、撮像手段はレンズ系を介して入力される被写体像を撮像して画像データを出力し、第1の合焦位置検出手段は撮像手段を使用して、レンズ系を無限側から至近側に移動させて被写体のコントラストをサンプリングして合焦位置を検出し、第2の合焦位置検出手段は撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出してレンズ系の合焦位置を検出し、第1の合焦位置検出手段は、第2の合焦位置検出手段で検出された合焦位置の近傍で被写体のコントラストをサンプリングし、合焦位置決定手段は第1の合焦位置検出手段で合焦位置の近傍でサンプリングされた被写体のコントラストが、レンズ系の移動開始位置である無限側から移動終了位置である至近側までの移動に伴って上昇を続けるように変化し、レンズ系の移動終了位置で最大となる場合には、第2の合焦位置検出手段で検出された合焦位置を最終的な合焦位置に決定し、それ以外の位置で被写体のコントラストが最大となる場合には、被写体のコントラストが最大となる位置を最終的な合焦位置に決定する。
【0010】
また、請求項にかかる発明は、請求項1にかかる発明において、前記合焦位置決定手段は、前記第1の合焦位置検出手段で検出された被写体のコントラストにピークが無い場合には、前記第2の合焦位置検出手段でサンプリングされた合焦位置を最終的な合焦位置に決定するものである。上記発明によれば、合焦位置決定手段は、第1の合焦位置検出手段でサンプリングされた被写体のコントラストにピークが無い場合には、第2の合焦位置検出手段で検出された合焦位置を最終的な合焦位置に決定する。
【0012】
また、請求項にかかる発明は、請求項1または請求項2にかかる発明において、合焦動作を指示するための合焦動作操作部材が操作された場合に、前記第1の合焦位置検出手段と前記第2の合焦位置検出手段とを略同時に動作させるものである。上記発明によれば、合焦動作を指示するための合焦動作操作部材が操作された場合に、第1の合焦位置検出手段と第2の合焦位置検出手段とを略同時に動作させる。
【0013】
また、請求項にかかる発明は、請求項1または請求項2に記載の自動合焦装置において、合焦動作を指示するための合焦動作操作部材の操作に先行して、所定の時間間隔で前記第2の合焦位置検出手段は被写体との距離を測距する測距処理を実行し、前記合焦動作操作部材が操作された場合には、前記第1の合焦位置検出手段は、前記第2の合焦位置検出手段で検出された合焦位置に基づいて合焦位置を検出する動作を実行するものである。上記発明によれば、合焦動作を指示するための合焦動作操作部材の操作に先行して、所定の時間間隔で第2の合焦位置検出手段は被写体との距離を測距する測距処理を実行し、合焦動作操作部材が操作された場合には、第1の合焦位置検出手段は、第2の合焦位置検出手段で検出された合焦位置に基づいて合焦位置を検出する動作を実行する。
【0014】
また、請求項にかかる発明は、請求項1〜請求項のいずれか1つにかかる自動合焦装置を適用したものである。上記発明によれば、請求項1〜請求項のいずれか1つにかかる自動合焦装置をデジタルカメラに適用する。
【0015】
また、請求項にかかる発明は、請求項1〜請求項のいずれか1つにかかる自動合焦装置を適用したものである。上記発明によれば、請求項1〜請求項のいずれか1つにかかる自動合焦装置を携帯情報入力装置に適用する。
【0016】
【発明の実施の形態】
以下に添付図面を参照して、この発明にかかる自動合焦装置、デジタルカメラ、および携帯情報端末装置の好適な実施の形態を詳細に説明する。
【0017】
図1は、本発明にかかる自動合焦装置を適用したデジタルカメラの構成図である。同図において、100はデジタルカメラを示しており、デジタルカメラ100は、レンズ系101、絞り・フィルター部等を含むメカ機構102、CCD103、CDS回路104、可変利得増幅器(AGCアンプ)105、A/D変換器106、IPP107、DCT108、コーダー109、MCC110、DRAM111、PCカードインターフェース112、CPU121、表示部122、操作部123、SG(制御信号生成)部126、ストロボ装置127、バッテリ128、DC−DCコンバータ129、EEPROM130、フォーカスドライバ131、パルスモータ132、ズームドライバ133、パルスモータ134、モータドライバ135、外部AFセンサー136を具備して構成されている。また、PCカードインターフェース112を介して着脱可能なPCカード150が接続されている。
【0018】
レンズユニットは、レンズ系101、絞り・フィルター部等を含むメカ機構102からなり、メカ機構102のメカニカルシャッタは2つのフィールドの同時露光を行う。レンズ系101は、例えば、バリフォーカルレンズからなり、フォーカスレンズ系101aとズームレンズ系101bとで構成されている。
【0019】
フォーカスドライバ131は、CPU121から供給される制御信号に従って、パルスモータ132を駆動して、フォーカスレンズ系101aを光軸方向に移動させる。ズームドライバ133は、CPU121から供給される制御信号に従って、パルスモータ134を駆動して、ズームレンズ系101bを光軸方向に移動させる。また、モータドライバ135は、CPU121から供給される制御信号に従ってメカ機構102を駆動し、例えば、絞りの絞り値を設定する。
【0020】
CCD(電荷結合素子)103は、レンズユニットを介して入力した映像を電気信号(アナログ画像データ)に変換する。CDS(相関2重サンプリング)回路104は、CCD型撮像素子に対する低雑音化のための回路である。
【0021】
また、AGCアンプ105は、CDS回路104で相関2重サンプリングされた信号のレベルを補正する。尚、AGCアンプ105のゲインは、CPU121により、CPU121が内蔵するD/A変換器を介して設定データ(コントロール電圧)がAGCアンプ105に設定されることにより設定される。さらにA/D変換器106は、AGCアンプ105を介して入力したCCD103からのアナログ画像データをデジタル画像データに変換する。すなわち、CCD103の出力信号は、CDS回路104およびAGCアンプ105を介し、またA/D変換器106により、最適なサンプリング周波数(例えば、NTSC信号のサブキャリア周波数の整数倍)にてデジタル信号に変換される。
【0022】
また、デジタル信号処理部であるIPP(Image Pre-Processor)107、DCT(Discrete Cosine Transform)108、およびコーダー(Huffman Encoder/Decoder)109は、A/D変換器106から入力したデジタル画像データについて、色差(Cb、Cr)と輝度(Y)に分けて各種処理、補正および画像圧縮/伸長のためのデータ処理を施す。DCT108およびコーダー109は、例えばJPEG準拠の画像圧縮・伸長の一過程である直交変換・逆直交変換、並びに、JPEG準拠の画像圧縮・伸長の一過程であるハフマン符号化・復号化等を行う。
【0023】
さらに、MCC(Memory Card Controller)110は、圧縮処理された画像を一旦蓄えてPCカードインターフェース112を介してPCカード150への記録、或いはPCカード150からの読み出しを行う。
【0024】
CPU121は、ROMに格納されたプログラムに従ってRAMを作業領域として使用して、操作部123からの操作、或いは図示しないリモコン等の外部動作操作に従い、上記デジタルカメラ内部の全動作を制御する。具体的には、CPU121は、撮像動作、自動露出(AE)動作、自動ホワイトバランス(AWB)調整動作や、AF動作等の制御を行う。
【0025】
また、カメラ電源はバッテリ128、例えば、NiCd、ニッケル水素、リチウム電池等から、DC−DCコンバータ129に入力され、当該デジタルカメラ内部に供給される。
【0026】
表示部122は、LCD、LED、EL等で実現されており、撮影したデジタル画像データや、伸長処理された記録画像データ、設定画面等の表示を行う。操作部123は、撮影操作を行うためのレリーズキー、ズームレンズ系101bのズーム位置を設定するためのズームキー、機能選択およびその他の各種設定を外部から行うためのボタン等を備えている。CPU121は、レリーズキーが半押しされてRL−1がONとなるとAF動作等を実行し、また、レリーズキーが全押しされてRL−2がONとなると撮影動作を実行する。EEPROM130には、CPU121がデジタルカメラの動作を制御する際に使用する調整データ等が書き込まれている。
【0027】
上記したデジタルカメラ100(CPU121)は、被写体を撮像して得られる画像データをPCカード150に記録する記録モードと、PCカード150に記録された画像データを表示する表示モードと、撮像した画像データを表示部122に直接表示するモニタリングモード等を備えている。
【0028】
図2は、上記IPP107の具体的構成の一例を示す図である。IPP107は、図2に示す如く、A/D変換器106から入力したデジタル画像データをR・G・Bの各色成分に分離する色分離部1071と、分離されたR・G・Bの各画像データを補間する信号補間部1072と、R・G・Bの各画像データの黒レベルを調整するペデスタル調整部1073と、R、Bの各画像データの白レベルを調整するホワイトバランス調整部1074と、CPU121により設定されたゲインでR・G・Bの各画像データを補正するデジタルゲイン調整部1075と、R・G・Bの各画像データのγ変換を行うガンマ変換部1076と、RGBの画像データを色差信号(Cb、Cr)と輝度信号(Y)とに分離するマトリクス部1077と、色差信号(Cb、Cr)と輝度信号(Y)とに基づいてビデオ信号を作成し表示部122に出力するビデオ信号処理部1078と、を備えている。
【0029】
更に、IPP107は、ペデスタル調整部1073によるペデスタル調整後の画像データの輝度データ(Y)を検出するY演算部1079と、Y演算部1079で検出した輝度データ(Y)の所定周波数成分のみを通過させるBPF1080と、BPF1080を通過した輝度データ(Y)の積分値をAF評価値としてCPU121に出力するAF評価値回路1081と、Y演算部1079で検出した輝度データ(Y)に応じたデジタルカウント値をAE評価値としてCPU121に出力するAE評価値回路1082と、ホワイトバランス調整部1074による調整後のR・G・Bの各画像データの輝度データ(Y)を検出するY演算部1083と、Y演算部1083で検出した各色の輝度データ(Y)をそれぞれカウントして各色のAWB評価値としてCPU121に出力するAWB評価値回路1084と、CPU121とのインターフェースであるCPUI/F1085と、及びDCT108とのインターフェースであるDCTI/F1086等を備えている。
【0030】
図1の外部AFセンサー136は、パッシブ方式の測距センサーからなり、被写体の距離を測距するためのものである。図3は、外部AFセンサーの概略構成を示す図である。外部AFセンサー136は、レンズ151と、フォトセンサーアレイ152a(左側)、152b(右側)と、演算回路(不図示)を備えている。図3および図4を参照して外部AFセンサー136の測距原理を説明する。図3において、被写体までの距離をd、レンズ151とフォトセンサーアレイ152a(左側)、152b(右側)との距離をf、フォトセンサーアレイ152a(左側)、152b(右側)に入力する光の幅をそれぞれ、X1、X2、光の入射されるフォトセンサーアレイ152a、152b間の距離をBとすると、外部AFセンサー136の前面から被写体までの距離dは、三角測量により、d=B・f/(X1+X2)で算出できる。図4は、左右のフォトセンサーアレイの被写体像を示しており、演算回路は、各フォトセンサーアレイの被写体像の光量を積分し、左右センサーデータのずれを演算することで、被写体の距離dを算出し、CPU121に出力する。
【0031】
本明細書において、外部AFセンサー136を使用して合焦位置を検出する動作を外部AFといい、CCD103を使用して合焦位置を検出する場合をCCD−AF(内部AF)という。CCD−AFでは、フォーカスレンズ101aを移動して、CCD103から出力される画像信号に応じた被写体のコントラストを示すAF評価値をサンプリングし、AF評価値のピーク位置を合焦位置とする山登りサーボ方式を使用する。外部AFとCCD−AFを使用してAFを行うことをハイブリットAFという。
【0032】
つぎに、上記構成のデジタルカメラのAFに関する動作例(動作例1、動作例2)を説明する。動作例1はCCD−AFと外部AFを略同時に実行する場合の動作例を示し、動作例2はCCD−AFに先行して外部AFを実行する場合の動作例を示す。
【0033】
(動作例1)
デジタルカメラのAFに関する動作例1を図5〜図7を参照して説明する。図5は、CPU121の制御により実行されるデジタルカメラのAFに関する動作例1を説明するためのフローチャートである。
【0034】
図5において、まず、CPU121は、レリーズキーが半押しされて、RL−1がONとなったか否かを判断する(ステップS1)。レリーズキーが半押しされて、RL−1がONされた場合には、CPU121は、フォーカスレンズ系101aをCCD−AFの開始位置(基準位置)に設定する(ステップS2)。CCD−AFの開始位置(基準位置)としては、例えば、レンズ系101の現ポジションを使用することができる。通常、同一の条件で連続して撮影する頻度が高いと考えられるからである。
【0035】
そして、CPU121は、外部AFとCCD−AFを略同時にスタートさせる(ステップS3)。外部AFでは、外部AFセンサー136により、測距処理が行われ、被写体との距離の測定が行われて合焦位置の検出が行われる。また、CCD−AFでは、フォーカスレンズ系101aを基準位置の近傍で移動させて、AF評価値を取得し、合焦位置の検出が行われる。
【0036】
この後、CPU121は、外部AFが終了したか否かを判断し(ステップS4)、外部AFが終了した場合には、外部AFの距離測定結果が、CCD−AFの開始位置(基準位置)に対応する撮影距離と所定値以上異なるか否かを判断する(ステップS5)。この判断の結果、外部AFの距離測定結果が、CCD−AFの開始位置(基準位置)に対応する撮影距離と所定値以上異ならない場合には、ステップS8に移行する。他方、外部AFの距離測定結果が、CCD−AFの開始位置(基準位置)に対応する撮影距離と所定値以上異なる場合には、CPU121は、CCD−AFを中断して、外部AFセンサー136で測定された距離に対応する位置を新たな基準位置とし、当該基準位置にフォーカスレンズ系101aを移動する(ステップS6)。つづいて、当該基準位置の近傍でCCD−AFを再実行する(ステップS7)。
【0037】
ステップS8では、CPU121は、CCD−AFが終了したか否かを判断し、CCD−AFが終了した場合には、CCD−AFのAF評価値のサンプリング結果(被写体のコントラストの状態)に基づいて、CCD−AFと外部AFで検出された合焦位置から最終的な合焦位置を決定する。
【0038】
ここで、CCD−AFのAF評価値のサンプリング結果(被写体のコントラストの状態)に基づいて、最終的な合焦位置の決定方法を説明する。
【0039】
図6〜図9は最終的な合焦位置の決定方法を説明するための説明図であり、CCD−AFでサンプリングされた被写体のコントラスト(AF評価値)の一例を示している。図6〜図9において、横軸はレンズ繰り出し量(レンズ位置)、縦軸は被写体のコントラスト(AF評価値)を示している。また、サンプリング幅は被写体のコントラスト(AF評価値)を検出する範囲を示している。
【0040】
図6は至近側から無限側の間に被写体のコントラスト(AF評価値)にピーク(極大)がある場合を示す。図7は被写体のコントラスト(AF評価値)にピーク(極大)がない場合を示す。図8は被写体のコントラスト(AF評価値)が、至近側で最大となる場合を示す。図9は被写体のコントラスト(AF評価値)が、無限側で最大となる場合を示す。
【0041】
図6に示すように、至近側から無限側の間に被写体のコントラスト(AF評価値)にピーク(極大)がある場合には、CPU121は、CCD−AFの当該ピーク位置を最終的な合焦位置と決定する。
【0042】
また、図7に示すように、被写体のコントラスト(AF評価値)にピーク(極大)がない場合には、CPU121は、外部AFで検出された合焦位置を最終の合焦位置と決定する。
【0043】
また、図8に示すように、被写体のコントラスト(AF評価値)が、フォーカスレンズが移動している方向(スキャン方向)である至近側まで上昇し続ける場合には、CPU121は、外部AFで検出された合焦位置を最終の合焦位置と決定する。至近側で被写体のコントラスト(AF評価値)が上昇し続ける場合は、CCD−AFの結果が擬合焦であると考えられるので、CCD−AFの結果ではなく外部AFの結果を使用する。
【0044】
また、図9に示すように、被写体のコントラスト(AF評価値)が、フォーカスレンズが移動開始側(スキャン開始側)である無限側で最大となり以降下降し続ける場合には、CPU121は、CCD−AFの当該最大となる位置(レンズ位置)を最終的な合焦位置に決定する。無限側で被写体のコントラスト(AF評価値)が最大となり以降下降し続ける場合には、CCD−AFの結果が擬合焦ではないと考えられるので、上述した至近側から無限側の間に被写体のコントラスト(AF評価値)にピーク(極大)がある場合と同様に、外部AFの結果ではなくCCD−AFの結果を使用する。
【0045】
CPU121は、以上の如くして決定した合焦位置にフォーカスレンズ系101aを移動させる(ステップS9)。その後、レリーズキーが全押しされてRL−2がONとなると、撮影動作を行い、被写体の画像データを取り込み、PCカード150に記録する。
【0046】
図10は第1の動作例における外部AFとCCD−AFの実行タイミングを説明するためのタイミングチャートを示す。同図(a)は、外部AFの距離測定結果とCCD−AFの開始位置(基準位置)に対応する撮影距離とが所定値以上異なる場合のタイミングを示す。同図(b)は、外部AFの距離測定結果とCCD−AFの開始位置(基準位置)に対応する撮影距離とが所定値以上異なり、CCD−AFを中断して、外部AFセンサー136で測定された距離に対応する位置を新たな基準位置とし、再度CCD−AFを実行した場合(▲2▼)を示している。
【0047】
(動作例2)
デジタルカメラのAFに関する動作例2を図11〜図14を参照して説明する。図11は、CPU121の制御により実行されるデジタルカメラのAFに関する動作例2を説明するためのフローチャートである。
【0048】
図11において、まず、電源が投入されると(ステップS21)、CPU121は、外部AF実行タイミングであるか否かを判断し(ステップS22)、この判断の結果、外部AFの実行タイミングでない場合には、ステップS24に移行する。他方、外部AF実行タイミングであれば、外部AFによる測距処理を実行して(ステップS23)、外部AFセンサー136は被写体との距離を測距して、ステップS24に移行する。
【0049】
ステップS24では、CPU121は、レリーズキーが半押しされて、RL−1キーがONされたか否かを判断する。RL−1がONでない場合には、ステップS22に戻り、RL−1がONされるまで、外部AFの実行タイミングで、外部AF測距処理が行われる。他方、ステップS24で、RL−1がONされた場合には、CPU121は、外部AFの測距結果に基づいて、CCD−AFの開始位置(基準位置)を算出する(ステップS25)。
【0050】
ここで、外部AFの測距結果に基づいて、CCD−AFの開始位置(基準位置)を算出する方法を説明する。例えば、外部AFの過去2点の測距結果から基準位置を予測する方法を使用することができる。これによれば、被写体が、近づいてくるか、遠ざかっているか、また、止まっているかを判断することが可能となる。
【0051】
図12は外部AFの直近の過去2点の距離測定結果からCCD−AFの開始位置(基準位置)を算出する場合を説明するための説明図を示す。同図において、Lccdは予測される被写体距離(CCD−AFの基準位置)、L2はレリーズ操作直前の外部AFによる被写体距離、L1はL2よりさらに1回前の外部AFによる被写体距離、t1はコンティニュアス外部AFの間隔、t2はレリーズ操作直前の外部AFからレリーズまでの時間を示す。予測される被写体距離(CCD−AFの基準位置)Lccdは、下式により算出する。そして、算出された予測される被写体距離Lccdに対応するレンズ系の位置をCCD−AFの開始位置(基準位置)と決定する。
【0052】
Lccd=L2+t2×(L2−L1)/t1
例えば、t1=t2とした場合に、過去2回が2m、3mの場合には、次は4m、他方、過去2回が4m、3mの場合には、次は2mと予測される。よって、それぞれ4m前後、2m前後に対応するレンズ系の位置でCCD−AFを実施することになる。
【0053】
なお、ここでは、過去2点からCCD−AFの基準位置を決定することにしたが、過去3点もしくはそれ以上の時系列データを用いることにしても良い。これにより、より細かい動体予測が可能となる。例えば、過去3点からCCD−AFの基準位置を決定する場合は、被写体が、近づいてくるか、遠ざかっているか、止まっているか、前後に揺れているかを判断することも可能となる。例えば、1回目と2回目、2回目と3回目の被写体距離を比較することにより、被写体移動の加速度成分も検出可能である。この場合、2次曲線で近似する方法や(上から落ちてくる被写体とか)、三角関数で近似する方法(ブランコに乗っている被写体とか)等を使用することができる。
【0054】
そして、CPU121は、算出したCCD−AFの開始位置(基準位置)にフォーカスレンズ系101aを移動させる(ステップS26)。つづいて、CPU121は、フォーカスレンズ系101aを基準位置に移動した後、外部AFとCCD−AFを同時にスタートさせる(ステップS27)。外部AFでは、外部AFセンサー136により、被写体との距離の測定が行われ合焦位置の検出が行われる。また、CCD−AFでは、フォーカスレンズ系101aを基準位置の近傍で移動させて、AF評価値を取得し、合焦位置の検出が行われる。
【0055】
ステップS28では、CPU121は、CCD−AFが終了したか否かを判断し、CCD−AFが終了した場合には、CCD−AFのAF評価値のサンプリング結果(被写体のコントラストの状態)に基づいて、CCD−AFと外部AFで検出された合焦位置から最終的な合焦位置を決定する(ステップS29)。CCD−AFのAF評価値のサンプリング結果(被写体のコントラストの状態)に基づいて、CCD−AFと外部AFで検出された合焦位置から最終的な合焦位置を決定する方法は動作例1と同様であるのでその説明は省略する。
【0056】
この後、CPU121は、決定した合焦位置にフォーカスレンズ系101aを移動させる(ステップS30)。その後、レリーズキーが全押しされてRL−2がONとなると、撮影動作を行い、被写体の画像データを取り込み、PCカード150に記録する。
【0057】
図13を参照して、第2の動作例における、外部AFとCCD−AFの実行タイミングを説明する。図13は第2の動作例における外部AFとCCD−AFの実行タイミングを説明するためのタイミングチャートを示す。同図の(a)は、外部AFの実行タイミングでレリーズが押された場合、(b)は、外部AFの休止中にレリーズが押された場合、(c)は、外部AF作動中にレリーズが押された場合(その1)、(d)は、外部AF作動中にレリーズが押された場合(その2)のタイミングを示す。
【0058】
同図(a)に示すように、外部AFの実行タイミングでレリーズが押された場合には、レリーズのONのタイミングで外部AFとCCD−AFを実行する。また、同図(b)に示すように、外部AF休止中にレリーズが押された場合には、外部AFの休止を終了して、レリーズのONのタイミングで外部AFとCCD−AFを実行する。外部AF作動中にレリーズが押された場合には、同図(c)に示すタイミングと、同図(d)に示すタイミングが考えられ、いずれのタイミングを使用することにしても良い。
【0059】
外部AF作動中にレリーズが押された場合には、同図(c)に示すように、レリーズの時点で外部AF▲3▼を中止し、再駆動することにしても良い。この場合は、外部AF▲3▼のデータは取得しないで、外部AFの▲4▼のデータとCCD−AFとの結果に基づいて、最終的な合焦位置を判断することになる。
【0060】
また、外部AF作動中にレリーズが押された場合には、同図(d)に示すように、レリーズの時点でも外部AF▲3▼を中断せず、外部AF▲3▼のデータとCCD−AFとの結果に基づいて、最終的な合焦位置を判断することになる。通常は、外部AF作動時間は0.1秒以下であるため、(d)の方式でも実使用上問題は無い。ただし、被写体が低輝度時等の場合は、外部AFでも0.1秒前後の時間がかかるため、(c)の方式の方が確実である。
【0061】
なお、上記ステップS28において、外部AFで検出された測距結果とCCD−AFで検出された合焦位置に対応する撮影距離とが、所定値以上異なる場合には、図14に示すように、CCD−AFの開始位置(基準位置)を変えて、再度CCD−AFを行うことにしても良い。
【0062】
以上説明したように、本実施の形態においては、動作例1では、レリーズキーが半押しされてRL−1がONとなると、CCD−AFと外部AFを略同時に実行することとしたので、外部AFを実行した後に、外部AFの結果に基づいてCCD−AFを実行する場合に比して、AF時間を短縮することが可能となる。
【0063】
また、本実施の形態においては、動作例2では、電源のONがなされると、レリーズキーの押下に先行して、すなわち、レリーズキーが押下されない状態においても、所定の間隔で外部AFで測距処理を行い、レリーズキーが押下された場合には、外部AFの測距結果に基づいてCCD−AFを行う場合の基準位置を算出して、当該基準位置の近傍でCCD−AFを行うこととしたので、レリーズキーが押下された後に、外部AFを実行し、その後、外部AFの結果に基づいてCCD−AFを実行する場合に比して、AF時間を短縮することが可能となる。
【0064】
また、本実施の形態においては、最終的な合焦位置を検出する場合に、CCD−AFでサンプリングされた被写体のコントラスト(AF評価値)の状態に応じて、CCD−AFの合焦結果または外部AFの合焦結果を選択して、最終的な合焦位置を決定することとしたので、高輝度被写体が存在しても正確に合焦位置を検出することが可能となる。
【0065】
また、本実施の形態においては、至近側から無限側の間に被写体のコントラスト(AF評価値)にピーク(極大)がある場合には、CCD−AFの当該ピーク位置を最終的な合焦位置と決定することとしたので、より正確な合焦位置の検出が可能となる。
【0066】
また、本実施の形態においては、CCD−AFで検出された被写体のコントラスト(AF評価値)にピーク(極大)がない場合には、外部AFで検出された合焦位置を最終の合焦位置と決定することとしたので、CCD−AFで被写体のコントラストのピーク位置を検出できない場合でも、正確な合焦位置の検出が可能となる。
【0067】
また、本実施の形態においては、CCD−AFで検出された被写体のコントラスト(AF評価値)が、至近側で最大となる場合には、外部AFで検出された合焦位置を最終の合焦位置と決定することとしたので、至近側に高輝度被写体がある場合でも正確な合焦位置の検出が可能となる。
【0068】
また、本実施の形態においては、CCD−AFで検出された被写体のコントラスト(AF評価値)が無限側で最大となる場合には、CCD−AFの当該最大となる位置を最終的な合焦位置に決定することとしたので、無限側に高輝度被写体がある場合でも正確な合焦位置の検出が可能となる。
【0069】
また、本実施の形態では、外部AFセンサーとして、パッシブ方式の測距センサーを使用することとしたので、小型化、低コスト化、処理の簡略化が可能となる。
【0070】
なお、本発明は上記した実施の形態に限定されるものではなく、発明の要旨を変更しない範囲で適宜変形して実行可能である。例えば、本実施の形態においては、本発明にかかる自動合焦装置をデジタルカメラに適用した例を説明したが、本発明はこれに限られるものではなく、PDA等の携帯情報入力装置等にも適用可能である。要は、画像を入力する際にAFを行う全ての装置に適用可能である。
【0071】
【発明の効果】
請求項1にかかる自動合焦装置によれば、レンズ系は被写体像を所定位置に結像し、撮像手段はレンズ系を介して入力される被写体像を撮像して画像データを出力し、第1の合焦位置検出手段は撮像手段を使用して、レンズ系を無限側から至近側に移動させて被写体のコントラストをサンプリングして合焦位置を検出し、第2の合焦位置検出手段は撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出してレンズ系の合焦位置を検出し、第1の合焦位置検出手段は、第2の合焦位置検出手段で検出された合焦位置の近傍で被写体のコントラストをサンプリングし、合焦位置決定手段は第1の合焦位置検出手段で合焦位置の近傍でサンプリングされた被写体のコントラストが、レンズ系の移動開始位置である無限側から移動終了位置である至近側までの移動に伴って上昇を続けるように変化し、レンズ系の移動終了位置で最大となる場合には、第2の合焦位置検出手段で検出された合焦位置を最終的な合焦位置に決定し、それ以外の位置で被写体のコントラストが最大となる場合には、被写体のコントラストが最大となる位置を最終的な合焦位置に決定することとしたので、短時間でかつ高輝度被写体が存在しても正確に合焦位置を検出することが可能な自動合焦装置を提供することができるという効果を奏する。
【0074】
また、請求項にかかる自動合焦装置によれば、請求項1にかかる自動合焦装置において、合焦位置決定手段は、第1の合焦位置検出手段でサンプリングされた被写体のコントラストにピークが無い場合には、第2の合焦位置検出手段で検出された合焦位置を最終的な合焦位置に決定することとしたので、請求項1にかかる自動合焦装置の効果に加えて、第1の合焦位置検出手段で被写体のコントラストのピークを検出できない場合でも、正確な合焦位置の検出が可能となる。
【0076】
また、請求項にかかる自動合焦装置によれば、請求項1または請求項2にかかる自動合焦装置において、合焦動作を指示するための合焦動作操作部材が操作された場合に、第1の合焦位置検出手段と第2の合焦位置検出手段とを略同時に動作させることとしたので、請求項1または請求項2にかかる自動合焦装置の効果に加えて、より高速に合焦位置の検出が可能となる。
【0077】
また、請求項にかかる自動合焦装置によれば、請求項1または請求項2にかかる自動合焦装置において、合焦動作を指示するための合焦動作操作部材の操作に先行して、所定の時間間隔で第2の合焦位置検出手段は被写体との距離を測距する測距処理を実行し、合焦動作操作部材が操作された場合には、第1の合焦位置検出手段は、第2の合焦位置検出手段で検出された合焦位置に基づいて合焦位置を検出する動作を実行することとしたので、請求項1または請求項2にかかる自動合焦装置の効果に加えて、より高速に合焦位置の検出が可能となる。
【0078】
また、請求項にかかるデジタルカメラによれば、請求項1〜請求項のいずれか1つにかかる自動合焦装置を適用することとしたので、短時間でかつ高輝度被写体が存在しても正確に合焦位置を検出することが可能なデジタルカメラを提供することができるという効果を奏する。
【0079】
また、請求項にかかる携帯情報入力装置によれば、請求項1〜請求項のいずれか1つにかかる自動合焦装置を適用することとしたので、短時間でかつ高輝度被写体が存在しても正確に合焦位置を検出することが可能な携帯情報入力装置を提供することができるという効果を奏する。
【図面の簡単な説明】
【図1】本実施の形態に係るデジタルカメラの構成図である。
【図2】図1のIPPの具体的構成の一例を示す図である。
【図3】図1の外部AFセンサーの概略構成を示す図である。
【図4】外部AFセンサーの測距原理を説明するための説明図である。
【図5】AFに関する第1の動作例を説明するためのフローチャートである。
【図6】至近側から無限側の間に被写体のコントラスト(AF評価値)にピーク(極大)がある場合を示す図である。
【図7】被写体のコントラスト(AF評価値)にピーク(極大)がない場合を示す図である。
【図8】被写体のコントラスト(AF評価値)が、至近側で最大となる場合を示す図である。
【図9】被写体のコントラスト(AF評価値)が、無限側で最大となる場合を示す図である。
【図10】第1の動作例における外部AFとCCD−AFの実行タイミングを説明するためのタイミングチャートを示す。
【図11】AFに関する第2の動作例を説明するためのフローチャートである。
【図12】外部AFの直近の過去2点の距離測定結果からCCD−AFの開始位置(基準位置)を算出する場合を説明するための説明図である。
【図13】第2の動作例における外部AFとCCD−AFの実行タイミングを説明するためのタイミングチャートを示す。
【図14】第2の動作例における外部AFとCCD−AFの実行タイミングを説明するためのタイミングチャートを示す。
【図15】従来のCCD−AF方式を説明するための説明図である。
【図16】従来のCCD−AF方式を説明するための説明図である。
【符号の説明】
100 デジタルカメラ
101 レンズ系
101a フォーカスレンズ系
101b ズームレンズ系
102 オートフォーカス等を含むメカ機構
103 CCD(電荷結合素子)
104 CDS(相関2重サンプリング)回路
105 可変利得増幅器(AGCアンプ)
106 A/D変換器
107 IPP(Image Pre-Processor)
108 DCT(Discrete Cosine Transform)
109 コーダー(Huffman Encoder/Decoder)
110 MCC(Memory Card Controller)
111 RAM(内部メモリ)
112 PCカードインターフェース
121 CPU
122 表示部
123 操作部
126 SG部
127 ストロボ
128 バッテリ
129 DC−DCコンバータ
130 EEPROM
131 フォーカスドライバ
132 パルスモータ
133 ズームドライバ
134 パルスモータ
135 モータドライバ
136 外部AFセンサー
150 PCカード
151 レンズ
152 フォトセンサーアレイ
1071 色分離部
1072 信号補間部
1073 ペデスタル調整部
1074 ホワイトバランス調整部
1075 デジタルゲイン調整部
1076 γ変換部
1077 マトリクス部
1078 ビデオ信号処理部
1079 Y演算部
1080 BPF
1081 AF評価値回路
1082 AE評価値回路
1083 Y演算部
1084 AWB評価値回路
1085 CPUI/F
1086 DCTI/F
1075r、1075g、1075b 乗算器
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an automatic focusing device, a digital camera, and a portable information input device, and more specifically, an automatic focusing device, a digital camera, and a portable information input device that detect an in-focus position with an external AF and a CCD-AF. About.
[0002]
[Prior art]
As an AF method for a conventional electronic still camera, a CCD-AF method for finding a focus peak by a luminance signal accumulated in the CCD while driving a CCD or a focus lens in the optical axis direction, or a triangulation type automatic focus adjustment mechanism Was used alone.
[0003]
[Problems to be solved by the invention]
However, as shown in FIG. 15, the CCD-AF system is a system in which the CCD or focus lens is driven from infinity to the closest position to find the focus peak, and therefore it takes time to detect the in-focus position. There is a problem that it takes. In order to solve the above-described problem, in the CCD-AF system, as shown in FIG. 16A, rough sampling is performed from infinity to the nearest position to detect the approximate focus position, and then FIG. As shown in b), a method for detecting the final in-focus position by performing fine sampling near the approximate in-focus position has been proposed. According to such a method, the detection time of the in-focus position can be slightly shortened, but it cannot be said to be sufficient.
[0004]
Also, in the CCD-AF system, if there is a high-luminance subject (light bulb, candle flame, reflecting signboard, etc.) in the area you want to focus on, you will not be able to find the focus mountain and will be in doubt. There is a problem . Ma In addition, the above-described triangulation method has a problem that a parallax shift in distance measurement on the close distance side is likely to occur, and performance on the telephoto side is low.
[0005]
The present invention has been made in view of the above, and an automatic focusing apparatus, a digital camera, and a portable information input capable of accurately detecting a focusing position in a short time even when a high-luminance subject is present An object is to provide an apparatus.
[0006]
[Means for Solving the Problems]
In order to solve the above-described problem, the invention according to claim 1 is configured to capture a subject image input through the lens system including a lens system including a focus lens system that forms a subject image at a predetermined position. An imaging means for outputting image data and a first in-focus position detection for detecting the in-focus position by sampling the contrast of the subject by moving the lens system from the infinite side to the close side using the imaging means And a second focus position detection means for detecting a focus position of the lens system by detecting a distance to the subject using a photoelectric conversion means different from the imaging means, The first focus position detection means samples the contrast of the subject in the vicinity of the focus position detected by the second focus position detection means; In the first focus position detection means Near the in-focus position The contrast of the sampled subject changes so as to continue to increase with the movement from the infinite side, which is the movement start position of the lens system, to the close side, which is the movement end position, and the movement end position of the lens system If the focus position detected by the second focus position detection means is determined as the final focus position, and the contrast of the subject is maximized at other positions. Comprises a focus position determining means for determining a position where the contrast of the subject is maximized as a final focus position.
[0007]
According to the above invention, the lens system forms a subject image at a predetermined position, the imaging unit images the subject image input through the lens system, outputs image data, and the first in-focus position detection unit. Uses the imaging means to move the lens system from the infinity side to the close side to sample the contrast of the subject to detect the in-focus position, and the second in-focus position detecting means is a photoelectric conversion different from the imaging means. To detect the in-focus position of the lens system by detecting the distance to the subject, The first focus position detection means samples the contrast of the subject in the vicinity of the focus position detected by the second focus position detection means, The in-focus position determining means is the first in-focus position detecting means. Near the in-focus position The contrast of the sampled subject changes so as to continue to increase with the movement from the infinity side, which is the movement start position of the lens system, to the close side, which is the movement end position, and becomes the maximum at the movement end position of the lens system. In this case, when the in-focus position detected by the second in-focus position detecting unit is determined as the final in-focus position, and the contrast of the subject is maximized at other positions, the contrast of the subject is The maximum position is determined as the final focus position.
[0010]
Claims 2 In the invention according to claim 1, in the invention according to claim 1, the in-focus position determining unit has the second in-focus position when the contrast of the subject detected by the first in-focus position detecting unit has no peak. The focus position sampled by the focus position detection means is determined as the final focus position. According to the above-described invention, the focus position determination unit determines the focus detected by the second focus position detection unit when there is no peak in the contrast of the subject sampled by the first focus position detection unit. The position is determined as the final focus position.
[0012]
Claims 3 The invention according to claim 1 is directed to claim 1. Or claim 2 In the invention according to Focusing operation For instructing Focusing operation When the operation member is operated, the first focus position detection means and the second focus position detection means are operated substantially simultaneously. According to the above invention, Focusing operation For instructing Focusing operation When the operation member is operated, the first focus position detection means and the second focus position detection means are operated substantially simultaneously.
[0013]
Claims 4 The invention according to claim 1 is directed to claim 1. Or claim 2 In the automatic focusing device described in Focusing operation For instructing Focusing operation Prior to the operation of the operation member, the second focus position detection means executes a distance measurement process for measuring the distance from the subject at a predetermined time interval, Focusing operation When the operation member is operated, the first focus position detection means detects the focus position detected by the second focus position detection means. On the basis of the An operation for detecting the in-focus position is executed. According to the above invention, Focusing operation For instructing Focusing operation Prior to the operation of the operation member, the second focus position detection means performs a distance measurement process for measuring the distance to the subject at a predetermined time interval, Focusing operation When the operation member is operated, the first focus position detection means detects the focus position detected by the second focus position detection means. On the basis of the An operation for detecting the in-focus position is executed.
[0014]
Claims 5 The invention according to claim 1 to claim 1 4 The automatic focusing device according to any one of the above is applied. According to the invention, claims 1 to claim 5 The automatic focusing device according to any one of the above is applied to a digital camera.
[0015]
Claims 6 The invention according to claim 1 to claim 1 4 The automatic focusing device according to any one of the above is applied. According to the invention, claims 1 to claim 4 The automatic focusing device according to any one of the above is applied to a portable information input device.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Exemplary embodiments of an automatic focusing device, a digital camera, and a portable information terminal device according to the present invention will be described below in detail with reference to the accompanying drawings.
[0017]
FIG. 1 is a block diagram of a digital camera to which an automatic focusing device according to the present invention is applied. In the figure, reference numeral 100 denotes a digital camera. The digital camera 100 includes a lens system 101, a mechanical mechanism 102 including an aperture / filter unit, a CCD 103, a CDS circuit 104, a variable gain amplifier (AGC amplifier) 105, an A / A D converter 106, IPP 107, DCT 108, coder 109, MCC 110, DRAM 111, PC card interface 112, CPU 121, display unit 122, operation unit 123, SG (control signal generation) unit 126, strobe device 127, battery 128, DC-DC A converter 129, an EEPROM 130, a focus driver 131, a pulse motor 132, a zoom driver 133, a pulse motor 134, a motor driver 135, and an external AF sensor 136 are provided. A detachable PC card 150 is connected via the PC card interface 112.
[0018]
The lens unit includes a mechanical mechanism 102 including a lens system 101, an aperture / filter unit, and the like. A mechanical shutter of the mechanical mechanism 102 performs simultaneous exposure of two fields. The lens system 101 is composed of, for example, a varifocal lens, and includes a focus lens system 101a and a zoom lens system 101b.
[0019]
The focus driver 131 drives the pulse motor 132 according to the control signal supplied from the CPU 121 to move the focus lens system 101a in the optical axis direction. The zoom driver 133 drives the pulse motor 134 according to the control signal supplied from the CPU 121 to move the zoom lens system 101b in the optical axis direction. Further, the motor driver 135 drives the mechanical mechanism 102 in accordance with a control signal supplied from the CPU 121, and sets, for example, an aperture value of the aperture.
[0020]
A CCD (charge coupled device) 103 converts an image input via the lens unit into an electrical signal (analog image data). A CDS (correlated double sampling) circuit 104 is a circuit for reducing noise in the CCD type image pickup device.
[0021]
In addition, the AGC amplifier 105 corrects the level of the signal that has been correlated and sampled by the CDS circuit 104. The gain of the AGC amplifier 105 is set by the CPU 121 when setting data (control voltage) is set in the AGC amplifier 105 via a D / A converter built in the CPU 121. Further, the A / D converter 106 converts analog image data from the CCD 103 input via the AGC amplifier 105 into digital image data. That is, the output signal of the CCD 103 is converted into a digital signal through the CDS circuit 104 and the AGC amplifier 105 and by the A / D converter 106 at an optimum sampling frequency (for example, an integer multiple of the subcarrier frequency of the NTSC signal). Is done.
[0022]
Further, an IPP (Image Pre-Processor) 107, a DCT (Discrete Cosine Transform) 108, and a coder (Huffman Encoder / Decoder) 109, which are digital signal processing units, are provided for digital image data input from the A / D converter 106. Various processing, correction, and data processing for image compression / decompression are performed separately for color differences (Cb, Cr) and luminance (Y). The DCT 108 and the coder 109 perform, for example, orthogonal transformation / inverse orthogonal transformation, which is a JPEG-compliant image compression / decompression process, and Huffman coding / decoding, which is a JPEG-compliant image compression / decompression process.
[0023]
Further, an MCC (Memory Card Controller) 110 temporarily stores the compressed image and records it on the PC card 150 or reads it from the PC card 150 via the PC card interface 112.
[0024]
The CPU 121 uses the RAM as a work area according to a program stored in the ROM, and controls all operations inside the digital camera according to an operation from the operation unit 123 or an external operation operation such as a remote controller (not shown). Specifically, the CPU 121 controls an imaging operation, an automatic exposure (AE) operation, an automatic white balance (AWB) adjustment operation, an AF operation, and the like.
[0025]
Camera power is input from a battery 128, such as NiCd, nickel metal hydride, or a lithium battery, to the DC-DC converter 129 and supplied into the digital camera.
[0026]
The display unit 122 is implemented by an LCD, LED, EL, or the like, and displays captured digital image data, decompressed recorded image data, a setting screen, and the like. The operation unit 123 includes a release key for performing a photographing operation, a zoom key for setting the zoom position of the zoom lens system 101b, buttons for performing function selection and other various settings from the outside, and the like. The CPU 121 executes an AF operation or the like when the release key is pressed halfway and RL-1 is turned on, and performs a shooting operation when the release key is fully pressed and RL-2 is turned on. In the EEPROM 130, adjustment data and the like used when the CPU 121 controls the operation of the digital camera are written.
[0027]
The above-described digital camera 100 (CPU 121) includes a recording mode in which image data obtained by imaging a subject is recorded on the PC card 150, a display mode in which image data recorded on the PC card 150 is displayed, and captured image data. Is provided directly on the display unit 122.
[0028]
FIG. 2 is a diagram illustrating an example of a specific configuration of the IPP 107. As shown in FIG. 2, the IPP 107 includes a color separation unit 1071 that separates digital image data input from the A / D converter 106 into R, G, and B color components, and separated R, G, and B images. A signal interpolation unit 1072 that interpolates data, a pedestal adjustment unit 1073 that adjusts the black level of each of the R, G, and B image data, and a white balance adjustment unit 1074 that adjusts the white level of each of the R and B image data , A digital gain adjustment unit 1075 that corrects R, G, and B image data with a gain set by the CPU 121, a gamma conversion unit 1076 that performs γ conversion of the R, G, and B image data, and an RGB image A matrix unit 1077 for separating data into color difference signals (Cb, Cr) and luminance signals (Y), and a video signal based on the color difference signals (Cb, Cr) and luminance signals (Y). A video signal processing unit 1078 to be output to the display unit 122, and a.
[0029]
Further, the IPP 107 passes through only a Y calculating unit 1079 that detects luminance data (Y) of image data after pedestal adjustment by the pedestal adjusting unit 1073, and a predetermined frequency component of the luminance data (Y) detected by the Y calculating unit 1079. The BPF 1080 to be output, the AF evaluation value circuit 1081 that outputs the integrated value of the luminance data (Y) that has passed through the BPF 1080 to the CPU 121 as an AF evaluation value, and the digital count value corresponding to the luminance data (Y) detected by the Y calculation unit 1079 AE evaluation value circuit 1082 that outputs to the CPU 121 as an AE evaluation value, a Y calculation unit 1083 that detects luminance data (Y) of each of the R, G, and B image data after adjustment by the white balance adjustment unit 1074, and Y The luminance data (Y) of each color detected by the calculation unit 1083 is counted, and the AWB of each color is counted. And AWB evaluation value circuit 1084 outputs the CPU 121 as a value, and a CPUI / F1085 is an interface with the CPU 121, and the DCTI / F1086 such an interface with the DCT108.
[0030]
The external AF sensor 136 in FIG. 1 is composed of a passive distance measuring sensor, and is used to measure the distance of the subject. FIG. 3 is a diagram showing a schematic configuration of the external AF sensor. The external AF sensor 136 includes a lens 151, photosensor arrays 152a (left side) and 152b (right side), and an arithmetic circuit (not shown). The principle of distance measurement of the external AF sensor 136 will be described with reference to FIGS. In FIG. 3, the distance to the subject is d, the distance between the lens 151 and the photo sensor arrays 152a (left side) and 152b (right side) is f, and the width of light input to the photo sensor arrays 152a (left side) and 152b (right side). , X1 and X2, and the distance between the photosensor arrays 152a and 152b on which light is incident is B, the distance d from the front surface of the external AF sensor 136 to the subject is obtained by triangulation by d = B · f / It can be calculated by (X1 + X2). FIG. 4 shows the subject images of the left and right photosensor arrays, and the arithmetic circuit integrates the light amounts of the subject images of the respective photosensor arrays and calculates the deviation of the left and right sensor data, thereby calculating the subject distance d. Calculate and output to the CPU 121.
[0031]
In this specification, the operation of detecting the in-focus position using the external AF sensor 136 is referred to as external AF, and the case of detecting the in-focus position using the CCD 103 is referred to as CCD-AF (internal AF). In the CCD-AF, the focus lens 101a is moved, the AF evaluation value indicating the contrast of the subject corresponding to the image signal output from the CCD 103 is sampled, and the hill-climbing servo system using the peak position of the AF evaluation value as the in-focus position. Is used. Performing AF using external AF and CCD-AF is called hybrid AF.
[0032]
Next, an operation example (operation example 1 and operation example 2) related to AF of the digital camera having the above configuration will be described. The operation example 1 shows an operation example when the CCD-AF and the external AF are executed substantially simultaneously, and the operation example 2 shows an operation example when the external AF is executed prior to the CCD-AF.
[0033]
(Operation example 1)
An operation example 1 relating to AF of a digital camera will be described with reference to FIGS. FIG. 5 is a flowchart for explaining an operation example 1 related to AF of the digital camera executed under the control of the CPU 121.
[0034]
In FIG. 5, first, the CPU 121 determines whether or not the release key is half-pressed and RL-1 is turned on (step S1). When the release key is pressed halfway and RL-1 is turned on, the CPU 121 sets the focus lens system 101a to the CCD-AF start position (reference position) (step S2). As the start position (reference position) of the CCD-AF, for example, the current position of the lens system 101 can be used. This is because it is usually considered that the frequency of continuous shooting under the same conditions is high.
[0035]
Then, the CPU 121 starts external AF and CCD-AF almost simultaneously (step S3). In the external AF, the external AF sensor 136 performs distance measurement processing, measures the distance to the subject, and detects the in-focus position. In the CCD-AF, the focus lens system 101a is moved in the vicinity of the reference position, the AF evaluation value is acquired, and the focus position is detected.
[0036]
Thereafter, the CPU 121 determines whether or not the external AF is finished (step S4). When the external AF is finished, the distance measurement result of the external AF is set to the start position (reference position) of the CCD-AF. It is determined whether or not the corresponding shooting distance differs by a predetermined value or more (step S5). As a result of this determination, if the distance measurement result of the external AF does not differ from the shooting distance corresponding to the start position (reference position) of the CCD-AF by a predetermined value or more, the process proceeds to step S8. On the other hand, if the distance measurement result of the external AF is different from the shooting distance corresponding to the start position (reference position) of the CCD-AF by a predetermined value or more, the CPU 121 interrupts the CCD-AF and uses the external AF sensor 136. The position corresponding to the measured distance is set as a new reference position, and the focus lens system 101a is moved to the reference position (step S6). Subsequently, the CCD-AF is re-executed near the reference position (step S7).
[0037]
In step S8, the CPU 121 determines whether or not the CCD-AF has ended. If the CCD-AF has ended, the CPU 121 determines based on the sampling result of the AF evaluation value of the CCD-AF (the state of contrast of the subject). The final focus position is determined from the focus positions detected by the CCD-AF and the external AF.
[0038]
Here, a final in-focus position determination method will be described based on the sampling result of the AF evaluation value of the CCD-AF (the state of contrast of the subject).
[0039]
6 to 9 are explanatory diagrams for explaining a final method of determining the in-focus position, and show an example of the contrast (AF evaluation value) of the subject sampled by the CCD-AF. 6 to 9, the horizontal axis represents the lens extension amount (lens position), and the vertical axis represents the contrast of the subject (AF evaluation value). The sampling width indicates the range in which the contrast (AF evaluation value) of the subject is detected.
[0040]
FIG. 6 shows a case where there is a peak (maximum) in the contrast (AF evaluation value) of the subject between the closest side and the infinite side. FIG. 7 shows a case where there is no peak (maximum) in the contrast (AF evaluation value) of the subject. FIG. 8 shows a case where the contrast (AF evaluation value) of the subject is maximized on the close side. FIG. 9 shows a case where the contrast (AF evaluation value) of the subject is maximized on the infinity side.
[0041]
As shown in FIG. 6, when there is a peak (maximum) in the contrast (AF evaluation value) of the subject between the closest side and the infinity side, the CPU 121 finally focuses the peak position of the CCD-AF. Determine with position.
[0042]
Also, as shown in FIG. 7, when there is no peak (maximum) in the contrast (AF evaluation value) of the subject, the CPU 121 determines the focus position detected by the external AF as the final focus position.
[0043]
Also, as shown in FIG. 8, the contrast (AF evaluation value) of the subject is The direction in which the focus lens is moving (scan direction) Near side Continue to rise In this case, the CPU 121 determines the focus position detected by the external AF as the final focus position. The subject's contrast (AF evaluation value) If it continues to rise, the CCD-AF result is considered to be pseudo-focused, The external AF result is used instead of the CCD-AF result.
[0044]
Further, as shown in FIG. 9, the contrast (AF evaluation value) of the subject is The focus lens is on the movement start side (scan start side) Maximum on infinity side Will continue to fall In this case, the CPU 121 determines the maximum position (lens position) of the CCD-AF as the final focus position. Subject contrast (AF evaluation value) is maximum at infinity Will continue to fall in case of, Since it is considered that the result of CCD-AF is not pseudo-focusing, as in the case where there is a peak (maximum) in the contrast (AF evaluation value) of the object between the close side and the infinite side described above, The CCD-AF result is used instead of the external AF result.
[0045]
The CPU 121 moves the focus lens system 101a to the in-focus position determined as described above (step S9). Thereafter, when the release key is fully pressed and RL-2 is turned on, a photographing operation is performed, and the image data of the subject is captured and recorded in the PC card 150.
[0046]
FIG. 10 is a timing chart for explaining execution timings of the external AF and the CCD-AF in the first operation example. FIG. 6A shows the timing when the distance measurement result of the external AF and the shooting distance corresponding to the start position (reference position) of the CCD-AF differ by a predetermined value or more. In FIG. 6B, the distance measurement result of the external AF and the shooting distance corresponding to the start position (reference position) of the CCD-AF are different from each other by a predetermined value, and the CCD-AF is interrupted and measured by the external AF sensor 136. The case where the position corresponding to the determined distance is set as a new reference position and CCD-AF is executed again ((2)) is shown.
[0047]
(Operation example 2)
An operation example 2 relating to AF of the digital camera will be described with reference to FIGS. FIG. 11 is a flowchart for explaining an operation example 2 regarding AF of the digital camera executed under the control of the CPU 121.
[0048]
In FIG. 11, first, when the power is turned on (step S21), the CPU 121 determines whether or not it is the external AF execution timing (step S22). Proceeds to step S24. On the other hand, if the external AF execution timing is reached, distance measurement processing by external AF is executed (step S23), the external AF sensor 136 measures the distance to the subject, and the process proceeds to step S24.
[0049]
In step S24, the CPU 121 determines whether or not the release key is pressed halfway and the RL-1 key is turned on. If RL-1 is not ON, the process returns to step S22, and external AF distance measurement processing is performed at the external AF execution timing until RL-1 is turned ON. On the other hand, if RL-1 is turned on in step S24, the CPU 121 calculates the start position (reference position) of the CCD-AF based on the distance measurement result of the external AF (step S25).
[0050]
Here, a method for calculating the start position (reference position) of the CCD-AF based on the distance measurement result of the external AF will be described. For example, a method of predicting the reference position from the distance measurement results of the past two points of the external AF can be used. This makes it possible to determine whether the subject is approaching, moving away, or stopped.
[0051]
FIG. 12 is an explanatory diagram for explaining a case where the CCD-AF start position (reference position) is calculated from the distance measurement results of the last two points of the external AF. In this figure, Lccd is the predicted subject distance (CCD-AF reference position), L2 is the subject distance by the external AF immediately before the release operation, L1 is the subject distance by the external AF one time before L2, and t1 is the continuity. The interval between the numeric external AF and t2 indicates the time from the external AF to the release immediately before the release operation. The predicted subject distance (CCD-AF reference position) Lccd is calculated by the following equation. Then, the lens system position corresponding to the calculated predicted subject distance Lccd is determined as the start position (reference position) of the CCD-AF.
[0052]
Lccd = L2 + t2 × (L2-L1) / t1
For example, when t1 = t2, if the past two times are 2 m and 3 m, the next is predicted to be 4 m, while if the past two times is 4 m and 3 m, the next is predicted to be 2 m. Therefore, CCD-AF is performed at the position of the lens system corresponding to around 4 m and around 2 m, respectively.
[0053]
Here, the reference position of the CCD-AF is determined from the past two points, but time series data of the past three points or more may be used. Thereby, a finer moving object prediction becomes possible. For example, when determining the CCD-AF reference position from the past three points, it is possible to determine whether the subject is approaching, moving away, stopped, or swinging back and forth. For example, by comparing the first, second, second, and third subject distances, the acceleration component of the subject movement can also be detected. In this case, a method of approximating with a quadratic curve (such as a subject falling from above), a method of approximating with a trigonometric function (such as a subject on a swing), or the like can be used.
[0054]
Then, the CPU 121 moves the focus lens system 101a to the calculated CCD-AF start position (reference position) (step S26). Subsequently, after moving the focus lens system 101a to the reference position, the CPU 121 starts the external AF and the CCD-AF simultaneously (step S27). In the external AF, the external AF sensor 136 measures the distance to the subject and detects the focus position. In the CCD-AF, the focus lens system 101a is moved in the vicinity of the reference position, the AF evaluation value is acquired, and the focus position is detected.
[0055]
In step S28, the CPU 121 determines whether or not the CCD-AF has ended. When the CCD-AF has ended, the CPU 121 determines based on the sampling result of the AF evaluation value of the CCD-AF (the state of the contrast of the subject). The final focus position is determined from the focus positions detected by the CCD-AF and the external AF (step S29). The method for determining the final focus position from the focus positions detected by the CCD-AF and the external AF based on the sampling result of the AF evaluation value of the CCD-AF (the state of the contrast of the subject) is Since it is the same, the description is omitted.
[0056]
Thereafter, the CPU 121 moves the focus lens system 101a to the determined focus position (step S30). Thereafter, when the release key is fully pressed and RL-2 is turned on, a shooting operation is performed, and image data of the subject is captured and recorded in the PC card 150.
[0057]
With reference to FIG. 13, the execution timing of the external AF and the CCD-AF in the second operation example will be described. FIG. 13 is a timing chart for explaining execution timings of the external AF and the CCD-AF in the second operation example. (A) in the figure is when the release is pressed at the execution timing of the external AF, (b) is when the release is pressed during the pause of the external AF, and (c) is the release during the external AF operation. When (1) is pressed, (d) shows the timing when the release is pressed during external AF operation (2).
[0058]
As shown in FIG. 6A, when the release is pressed at the external AF execution timing, the external AF and the CCD-AF are executed at the release ON timing. Also, as shown in FIG. 5B, when the release is pressed while the external AF is stopped, the external AF is stopped and the external AF and CCD-AF are executed at the release ON timing. . When the release is pressed during the external AF operation, the timing shown in FIG. 10C and the timing shown in FIG. 10D are considered, and any timing may be used.
[0059]
When the release is pressed during the external AF operation, the external AF (3) may be stopped at the time of release and re-driven as shown in FIG. In this case, the data of the external AF (3) is not acquired, and the final focus position is determined based on the data of the external AF (4) and the result of the CCD-AF.
[0060]
If the release button is pressed during the external AF operation, as shown in FIG. 4D, the external AF (3) is not interrupted even at the time of release, and the external AF (3) data and the CCD- The final in-focus position is determined based on the result of AF. Usually, since the external AF operation time is 0.1 second or less, there is no problem in practical use even in the method (d). However, when the subject is at a low luminance, the method of (c) is more reliable because it takes about 0.1 seconds even with external AF.
[0061]
If the distance measurement result detected by the external AF and the shooting distance corresponding to the in-focus position detected by the CCD-AF differ by a predetermined value or more in step S28, as shown in FIG. The CCD-AF may be performed again by changing the start position (reference position) of the CCD-AF.
[0062]
As described above, in this embodiment, in the operation example 1, when the release key is pressed halfway and RL-1 is turned on, the CCD-AF and the external AF are executed substantially simultaneously. After executing AF, it is possible to shorten the AF time as compared with the case where CCD-AF is executed based on the result of external AF.
[0063]
In the present embodiment, in the operation example 2, when the power is turned on, the external AF is measured at a predetermined interval even before the release key is pressed, that is, even when the release key is not pressed. When a distance process is performed and the release key is pressed, a reference position for performing the CCD-AF is calculated based on the distance measurement result of the external AF, and the CCD-AF is performed in the vicinity of the reference position. Therefore, the AF time can be shortened as compared with the case where the external AF is executed after the release key is pressed and then the CCD-AF is executed based on the result of the external AF.
[0064]
Further, in the present embodiment, when the final focus position is detected, the focus result of the CCD-AF or the contrast of the subject sampled by the CCD-AF (AF evaluation value) Since the final focus position is determined by selecting the focus result of the external AF, the focus position can be accurately detected even when a high-luminance subject exists.
[0065]
Further, in the present embodiment, when there is a peak (maximum) in the contrast (AF evaluation value) of the subject between the closest side and the infinite side, the peak position of the CCD-AF is determined as the final in-focus position. Therefore, it is possible to detect the in-focus position more accurately.
[0066]
In this embodiment, when there is no peak (maximum) in the contrast (AF evaluation value) of the object detected by the CCD-AF, the focus position detected by the external AF is set as the final focus position. Therefore, even when the peak position of the contrast of the subject cannot be detected by the CCD-AF, it is possible to accurately detect the in-focus position.
[0067]
In this embodiment, when the contrast (AF evaluation value) of the object detected by the CCD-AF is maximum on the close side, the focus position detected by the external AF is used as the final focus. Since the position is determined, it is possible to accurately detect the in-focus position even when there is a high brightness subject on the close side.
[0068]
In the present embodiment, when the contrast (AF evaluation value) of the object detected by the CCD-AF is maximum on the infinite side, the maximum position of the CCD-AF is finally focused. Since the position is determined, it is possible to accurately detect the in-focus position even when there is a high brightness subject on the infinite side.
[0069]
In the present embodiment, since a passive distance measuring sensor is used as the external AF sensor, it is possible to reduce the size, reduce the cost, and simplify the processing.
[0070]
Note that the present invention is not limited to the above-described embodiment, and can be appropriately modified and executed without changing the gist of the invention. For example, in the present embodiment, an example in which the automatic focusing device according to the present invention is applied to a digital camera has been described. However, the present invention is not limited to this, and the present invention is also applied to a portable information input device such as a PDA. Applicable. In short, the present invention can be applied to all apparatuses that perform AF when inputting an image.
[0071]
【The invention's effect】
According to the automatic focusing device of the first aspect, the lens system forms a subject image at a predetermined position, and the imaging means captures the subject image input through the lens system and outputs image data. The first focus position detection means uses an imaging means to move the lens system from the infinity side to the closest side, sample the contrast of the subject to detect the focus position, and the second focus position detection means Using a photoelectric conversion means different from the imaging means, the distance to the subject is detected to detect the in-focus position of the lens system, The first focus position detection means samples the contrast of the subject in the vicinity of the focus position detected by the second focus position detection means, The in-focus position determining means is the first in-focus position detecting means. Near the in-focus position The contrast of the sampled subject changes so as to continue to increase with the movement from the infinity side, which is the movement start position of the lens system, to the close side, which is the movement end position, and becomes the maximum at the movement end position of the lens system. In this case, when the in-focus position detected by the second in-focus position detector is determined as the final in-focus position, and the contrast of the subject is maximized at other positions, the contrast of the subject is Since the maximum position is determined as the final focusing position, an automatic focusing device capable of accurately detecting the focusing position in a short time even when a high-luminance subject exists is provided. There is an effect that can be.
[0074]
Claims 2 According to the automatic focusing apparatus according to claim 1, in the automatic focusing apparatus according to claim 1, when the focus position determination unit has no peak in the contrast of the subject sampled by the first focus position detection unit. Since the in-focus position detected by the second in-focus position detecting means is determined as the final in-focus position, in addition to the effect of the automatic focusing device according to claim 1, the first in-focus position is determined. Even when the focus position detection means cannot detect the contrast peak of the subject, it is possible to accurately detect the focus position.
[0076]
Claims 3 According to the automatic focusing device according to claim 1, Or claim 2 In the automatic focusing device according to Focusing operation For instructing Focusing operation When the operation member is operated, the first in-focus position detecting unit and the second in-focus position detecting unit are operated substantially simultaneously. Or claim 2 In addition to the effect of the automatic focusing device according to the above, it becomes possible to detect the focusing position at a higher speed.
[0077]
Claims 4 According to the automatic focusing device according to claim 1, Or claim 2 In the automatic focusing device according to Focusing operation For instructing Focusing operation Prior to the operation of the operation member, the second focus position detection means performs a distance measurement process for measuring the distance to the subject at a predetermined time interval, Focusing operation When the operation member is operated, the first focus position detection means detects the focus position detected by the second focus position detection means. On the basis of the Since the operation of detecting the in-focus position is executed, the claim 1 Or claim 2 In addition to the effect of the automatic focusing device according to the above, it becomes possible to detect the focusing position at a higher speed.
[0078]
Claims 5 According to the digital camera according to claim 1 to claim 1. 4 Since the automatic focusing device according to any one of the above is applied, it is possible to provide a digital camera capable of accurately detecting a focusing position in a short time even when a high-luminance subject is present. There is an effect that can be done.
[0079]
Claims 6 According to the portable information input device according to claim 1, claims 1 to 4 Since the automatic focusing device according to any one of the above is applied, a portable information input device capable of accurately detecting a focusing position in a short time even when a high-luminance subject exists is provided. There is an effect that can be.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a digital camera according to an embodiment.
FIG. 2 is a diagram illustrating an example of a specific configuration of the IPP in FIG. 1;
3 is a diagram showing a schematic configuration of the external AF sensor of FIG. 1. FIG.
FIG. 4 is an explanatory diagram for explaining a distance measuring principle of an external AF sensor.
FIG. 5 is a flowchart for explaining a first operation example regarding AF;
FIG. 6 is a diagram illustrating a case where there is a peak (maximum) in the contrast (AF evaluation value) of an object between the closest side and the infinite side.
FIG. 7 is a diagram illustrating a case where there is no peak (maximum) in the contrast (AF evaluation value) of an object.
FIG. 8 is a diagram illustrating a case where the contrast (AF evaluation value) of a subject is maximized on the close side.
FIG. 9 is a diagram illustrating a case where the contrast (AF evaluation value) of a subject is maximized on the infinite side.
FIG. 10 is a timing chart for explaining execution timings of external AF and CCD-AF in the first operation example;
FIG. 11 is a flowchart for explaining a second operation example regarding AF;
FIG. 12 is an explanatory diagram for explaining a case where the CCD-AF start position (reference position) is calculated from the distance measurement results of the last two points of the external AF.
FIG. 13 is a timing chart for explaining execution timings of external AF and CCD-AF in the second operation example;
FIG. 14 is a timing chart for explaining execution timings of external AF and CCD-AF in the second operation example;
FIG. 15 is an explanatory diagram for explaining a conventional CCD-AF system.
FIG. 16 is an explanatory diagram for explaining a conventional CCD-AF system.
[Explanation of symbols]
100 digital camera
101 Lens system
101a Focus lens system
101b Zoom lens system
102 Mechanical mechanism including autofocus
103 CCD (Charge Coupled Device)
104 CDS (correlated double sampling) circuit
105 Variable Gain Amplifier (AGC Amplifier)
106 A / D converter
107 IPP (Image Pre-Processor)
108 DCT (Discrete Cosine Transform)
109 Coder (Huffman Encoder / Decoder)
110 MCC (Memory Card Controller)
111 RAM (internal memory)
112 PC card interface
121 CPU
122 Display section
123 Operation unit
126 SG Department
127 Strobe
128 battery
129 DC-DC converter
130 EEPROM
131 Focus driver
132 Pulse motor
133 Zoom driver
134 Pulse motor
135 Motor driver
136 External AF sensor
150 PC card
151 lens
152 Photosensor Array
1071 Color separation unit
1072 Signal interpolation unit
1073 Pedestal adjustment unit
1074 White balance adjustment section
1075 Digital gain adjustment unit
1076 γ converter
1077 Matrix part
1078 Video signal processor
1079 Y operation part
1080 BPF
1081 AF evaluation value circuit
1082 AE evaluation value circuit
1083 Y operation part
1084 AWB evaluation value circuit
1085 CPU I / F
1086 DCTI / F
1075r, 1075g, 1075b multiplier

Claims (6)

被写体像を所定位置に結像するフォーカスレンズ系を含むレンズ系と、
前記レンズ系を介して入力される被写体像を撮像して画像データを出力する撮像手段と、
前記撮像手段を使用して、前記レンズ系を無限側から至近側に移動させて被写体のコントラストをサンプリングして合焦位置を検出する第1の合焦位置検出手段と、
前記撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出して前記レンズ系の合焦位置を検出する第2の合焦位置検出手段と、
前記第1の合焦位置検出手段は、前記第2の合焦位置検出手段で検出された合焦位置の近傍で被写体のコントラストをサンプリングし、
前記第1の合焦位置検出手段で前記合焦位置の近傍でサンプリングされた被写体のコントラストが、前記レンズ系の移動開始位置である前記無限側から移動終了位置である前記至近側までの移動に伴って上昇を続けるように変化し、前記レンズ系の移動終了位置で最大となる場合には、前記第2の合焦位置検出手段で検出された合焦位置を最終的な合焦位置に決定し、それ以外の位置で前記被写体のコントラストが最大となる場合には、前記被写体のコントラストが最大となる位置を最終的な合焦位置に決定する合焦位置決定手段と、
を備えたことを特徴とする自動合焦装置。
A lens system including a focus lens system for forming a subject image at a predetermined position;
Imaging means for capturing an image of a subject input via the lens system and outputting image data;
First focus position detecting means for detecting the focus position by moving the lens system from the infinity side to the closest side and sampling the contrast of the subject using the imaging means;
Second focus position detection means for detecting a focus position of the lens system by detecting a distance to a subject using a photoelectric conversion means different from the imaging means;
The first focus position detection means samples the contrast of the subject in the vicinity of the focus position detected by the second focus position detection means;
The contrast of the subject sampled in the vicinity of the in- focus position by the first in-focus position detecting means is changed from the infinite side which is the movement start position of the lens system to the close side which is the movement end position. When the lens system changes so as to continue to rise and becomes the maximum at the movement end position of the lens system, the focus position detected by the second focus position detection means is determined as the final focus position. And, when the contrast of the subject is maximized at other positions, a focus position determining means for determining a position where the contrast of the subject is maximized as a final focus position;
An automatic focusing device characterized by comprising:
前記合焦位置決定手段は、前記第1の合焦位置検出手段でサンプリングされた被写体のコントラストにピークが無い場合には前記第2の合焦位置検出手段で検出された合焦位置を最終的な合焦位置に決定することを特徴とする請求項1に記載の自動合焦装置。  The in-focus position determining means finally determines the in-focus position detected by the second in-focus position detecting means when there is no peak in the contrast of the subject sampled by the first in-focus position detecting means. The automatic focusing device according to claim 1, wherein the in-focus position is determined. 合焦動作を指示するための合焦動作操作部材が操作された場合に、前記第1の合焦位置検出手段と前記第2の合焦位置検出手段とを略同時に動作させることを特徴とする請求項1または請求項2に記載の自動合焦装置。  When the focusing operation member for instructing the focusing operation is operated, the first focusing position detection unit and the second focusing position detection unit are operated substantially simultaneously. The automatic focusing device according to claim 1 or 2. 合焦動作を指示するための合焦動作操作部材の操作に先行して、所定の時間間隔で前記第2の合焦位置検出手段は被写体との距離を測距する測距処理を実行し、前記合焦動作操作部材が操作された場合には、前記第1の合焦位置検出手段は、前記第2の合焦位置検出手段で検出された合焦位置に基づいて合焦位置を検出する動作を実行することを特徴とする請求項1または請求項2に記載の自動合焦装置。  Prior to the operation of the focus operation member for instructing the focus operation, the second focus position detection means executes a distance measurement process for measuring the distance from the subject at a predetermined time interval. When the focusing operation member is operated, the first focusing position detection unit detects the focusing position based on the focusing position detected by the second focusing position detection unit. The automatic focusing device according to claim 1 or 2, wherein an operation is executed. 請求項1〜請求項4のいずれか1つに記載の自動合焦装置を適用したことを特徴とするデジタルカメラ。  A digital camera to which the automatic focusing device according to any one of claims 1 to 4 is applied. 請求項1〜請求項4のいずれか1つに記載の自動合焦装置を適用したことを特徴とする携帯情報入力装置。  A portable information input device to which the automatic focusing device according to any one of claims 1 to 4 is applied.
JP2000064200A 2000-03-08 2000-03-08 Automatic focusing device, digital camera, and portable information input device Expired - Fee Related JP3914367B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000064200A JP3914367B2 (en) 2000-03-08 2000-03-08 Automatic focusing device, digital camera, and portable information input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000064200A JP3914367B2 (en) 2000-03-08 2000-03-08 Automatic focusing device, digital camera, and portable information input device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006168651A Division JP4343192B2 (en) 2006-06-19 2006-06-19 Automatic focusing device, digital camera, and portable information input device

Publications (2)

Publication Number Publication Date
JP2001255453A JP2001255453A (en) 2001-09-21
JP3914367B2 true JP3914367B2 (en) 2007-05-16

Family

ID=18583933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000064200A Expired - Fee Related JP3914367B2 (en) 2000-03-08 2000-03-08 Automatic focusing device, digital camera, and portable information input device

Country Status (1)

Country Link
JP (1) JP3914367B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101551181B1 (en) 2013-11-07 2015-09-09 티.비.티. 주식회사 Portable focus detection apparatus and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101551181B1 (en) 2013-11-07 2015-09-09 티.비.티. 주식회사 Portable focus detection apparatus and method

Also Published As

Publication number Publication date
JP2001255453A (en) 2001-09-21

Similar Documents

Publication Publication Date Title
US6430368B1 (en) Autofocus apparatus
JP4444927B2 (en) Ranging apparatus and method
JP4980982B2 (en) Imaging apparatus, imaging method, focus control method, and program
US10162248B2 (en) Automatic focusing apparatus and control method therefor
JP4727534B2 (en) Imaging device
JP2005241805A (en) Automatic focusing system and its program
US20120133813A1 (en) Image pickup apparatus
JP3820076B2 (en) Automatic focusing device, digital camera, portable information input device, focusing position detection method, and computer-readable recording medium
TWI492618B (en) Image pickup device and computer readable recording medium
JP2003307669A (en) Camera
JP3761383B2 (en) Automatic focusing device, camera, portable information input device, focusing position detection method, and computer-readable recording medium
JPH11215426A (en) Automatic focusing system
US7710492B2 (en) Imaging device and imaging method for performing automatic focus detection
JP5092673B2 (en) Imaging apparatus and program thereof
JP2001255451A (en) Automatic focusing device, digital camera and portable information input device
JP2001221945A (en) Automatic focusing device
JP4555255B2 (en) Automatic focusing device, digital camera, portable information input device, focusing position detection method, and computer-readable recording medium
JP5045538B2 (en) Imaging apparatus and program
JP4612512B2 (en) Automatic focusing device, camera, portable information input device, focusing position detection method, and computer-readable recording medium
JP3795723B2 (en) Automatic focusing device, digital camera, portable information input device and focusing position detection method
US20140168467A1 (en) Focus adjustment apparatus and method, and image capturing apparatus
JP2004085964A (en) Automatic focusing device, digital camera, and portable information input device
JP3914367B2 (en) Automatic focusing device, digital camera, and portable information input device
JP2014106324A (en) Autofocus device and imaging device
JP2004151183A (en) Automatic focusing device, digital camera and portable information terminal equipment equipped with the automatic focusing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040712

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20050325

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20050622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060306

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060619

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070202

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110209

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120209

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130209

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130209

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140209

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees