JP3791012B2 - フォーカス制御装置 - Google Patents

フォーカス制御装置 Download PDF

Info

Publication number
JP3791012B2
JP3791012B2 JP52508297A JP52508297A JP3791012B2 JP 3791012 B2 JP3791012 B2 JP 3791012B2 JP 52508297 A JP52508297 A JP 52508297A JP 52508297 A JP52508297 A JP 52508297A JP 3791012 B2 JP3791012 B2 JP 3791012B2
Authority
JP
Japan
Prior art keywords
evaluation value
focus
lens
circuit
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP52508297A
Other languages
English (en)
Inventor
雄二郎 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Application granted granted Critical
Publication of JP3791012B2 publication Critical patent/JP3791012B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

技術分野
この発明は、ビデオカメラ等に適用して好適なフォーカス装置に関するものである。
背景技術
従来、民生用のビデオカメラにおいては、被写体に対してフォーカスを自動的に合わせるオートフォーカス装置が用いられている。
一般的に、フォーカスが合っているか否かを検出するためには、撮像信号のコントラストが高いか低いかを判断すれば良いことは良く知られている。言い換えると、コントラストが高いとフォーカスが合っており、コントラストが低いとフォーカスがずれているということである。撮像信号の高周波成分を取り出して、所定の設定エリア内に存在するこの高周波成分を積分したデータを生成し、この積分したデータを利用することによって、コントラストが高いか低いかを判断できる。この積分されたデータは、その設定エリア内にどれだけ高周波成分が存在するかを示すデータであって、一般的に、このデータを評価値と呼んでいる。従って、評価値が最大となるように(つまり、コントラストが最大となるように)フォーカスレンズを駆動することによって、オートフォーカスが実現できる。
被写体、背景及び撮影条件が変化しない場合には、評価値に外乱によるノズルが含まれることは少ない。しかし、動画を撮影するためのビデオカメラは、リアルタイムに被写体、背景及び撮影条件が変化してしまい、その結果、評価値にノイズが含まれてしまうことがあった。そのため、リアルタイムに変化する被写体から正確な評価値を検出することが非常に難しかった。
さらに、評価値にノイズが乗っているときは、フォーカスレンズが合焦点位置を通過するときに評価値が最大とならなかったり、また逆に合焦点位置でないのに最大の評価値となったりする不都合があり、合焦点位置の判断を誤る虞れがあった。
その結果、評価値が最大となるレンズ位置を検索するために、本来評価値が最大となるべきレンズ位置の前後をフォーカスレンズが行ったり来たりというように移動し、フォーカスを合わせるために非常に時間を要していた。
また低輝度の場合、この評価値にノイズが定常的に乗っているので合焦点位置を得るのが困難であり、高精度のフォーカス制御ができない不都合があった。
また評価値を得るサンプリングポイントと評価値が最大となる位置とは必ずしも一致しない不都合があった。さらに従来はこの評価値最大位置即ち合焦点位置に対しフォーカスレンズを複数回往復移動してこの合焦点位置を決めていたので、この合焦点位置を決めるのに時間がかかる不都合があった。
放送局や業務用に使用されるハイエンドのビデオカメラ装置においては、撮影された映像をライブ中継で家庭に伝送することがある。このようなライブ中継を行っている時に、オートフォーカス動作に時間がかかってしまうと、ぼやけた撮像信号を家庭に伝送してしまうことになる。従って、放送局や業務用に使用されるビデオカメラには、民生用のビデオカメラのような簡易型や廉価のオートフォーカス装置では不充分で、高精度のフォーカス制御及び高速なフォーカス制御が要求されている。
発明の開示
本発明は斯る点に鑑み高精度及び高速のフォーカス制御ができるフォーカス制御装置を提供することを目的とする。
本発明フォーカス制御装置は、ビデオカメラのフォーカスを制御するフォーカス制御装置において、フォーカスレンズの移動に伴って、撮像手段から出力された撮像信号の高周波成分を抽出することによって、被写体のフォーカス状態を表す評価値を生成する評価値生成手段と、この評価値生成手段によって生成された評価値が最大となったフォーカスレンズの位置を検出し、この検出されたフォーカスレンズ位置の近傍のレンズ位置において生成された複数の評価値に基づいて、ジャストォーカス位置を求める制御手段と、この評価値生成手段によって生成された評価値を、連続的に移動するフォーカスレンズのレンズ位置と対応付けて記憶する記憶手段とを備え、このジャストフォーカス位置は、
Figure 0003791012
に基づいて求められることを特徴とする。
但し、Xg:ジャストフォーカス位置
X :評価値が最大となったフォーカスレンズの位置の近傍のレンズ位置
E(X):レンズ位置Xにおける評価値
斯る本発明によれば、選択された複数の評価値とこの選択された複数の評価値に対応するレンズ位置に基づいてジャストフォーカス位置を演算により求めているので、評価値にノイズが乗っていたり、低輝度の場合で評価値にノイズが定常的に乗っていても、高精度のフォーカス制御ができると共にフォーカスレンズがジャストフォーカス位置(合焦点位置)を1回通過するだけでこのジャストフォーカス位置を演算でき、このフォーカスレンズのジャストフォーカス位置を決めるのに高速で行うことができる。
【図面の簡単な説明】
第1図は、ビデオカメラ装置の全体構成例を示す図である。
第2図は、オートフォーカス制御回路34の具体的な構成例を示すための図である。
第3図は、水平方向評価値生成回路62の具体的な構成例を示すための図である。
第4図は、垂直方向評価値生成回路63の具体的な構成例を示すための図である。
第5図は、水平方向評価値生成回路62及び垂直方向評価値生成回路63の各回路に設定されるフィルタ計数α及びウインドウサイズを示す図である。
第6図は、各ウインドウサイズを説明するための線図である。
第7図は、各評価値Eに対して夫々設定された重みデータWを示すための図である。
第8図は、エリア検索回路38によって分割される分割エリアを示すための図である。
第9図は、エリア検索回路38の具体的な回路構成例を示すための図である。
第10図から第15図は、フォーカスに関する処理動作を説明するための図である。
第16図は、目的被写体を決定するための処理動作を説明するための図である。
第17図は、フォーカスを合わせるためにレンズを移動させる方向を決定する時に、レンズの移動を示すための図である。
第18A及び第18B図は、ウインドウ内に非ターゲット物体が入ってきたときの状態を示す図である。
第19図は、レンズの移動方向を決定する際に、RAM66に記憶した評価値の変動を示すための図である。
第20図は、オートフォーカス動作中に、RAM66に記憶されるデータを示すための図である。
第21図は、オートフォーカス動作によって得られた評価値の変化を示すための図である。
第22図は、目的物体と同じ色を有した物体Aと物体Bの撮像状態を示すための図である。
第23図は、物体情報テーブルを示すための図である。
第24図は、目的物体履歴テーブルを示すための図である。
発明を実施するための最良の形態
以下、本発明の実施例について第1図から第24図を参照して説明する。
まず、第1図を参照しながら、本例のフォーカス制御装置を適用したビデオカメラ装置の全体構成を説明する。ビデオカメラ装置は、入射光を光学的に撮像素子の前面に集光するためのレンズブロック1と、レンズブロックからの入射光をRGBの電気的な撮像信号に変換する撮像ブロック2と、撮像信号に対して所定の信号処理を行う信号処理ブロック3と、レンズブロック1と撮像ブロック2と信号処理ブロック3を制御するCPU4とを備えている。
レンズブロック1は、ビデオカメラ装置本体に対して着脱可能に設けられる。このレンズブロック1は、光学的な要素として、光軸に沿って移動させることによって、結像点の位置を可変すること無く焦点距離を連続的に可変させ、被写体の像をズーミングするためのズームレンズ11と、被写体に対してフォーカスを合わせるためのフォーカスレンズ12と、開口量を可変することによって撮像素子の前面に入射する光量を調整するアイリス機構13とを有している。
レンズブロック1は、さらに、ズームレンズ11の光軸方向のレンズ位置を検出する位置検出センサ11aと、ズームレンズ11を光軸方向に移動させるための駆動モータ11bと、駆動モータ11bに駆動制御信号を与えるためのズームレンズ駆動回路11cと、フォーカスレンズ12の光軸方向のレンズ位置を検出する位置検出センサ12aと、フォーカスレンズ12を光軸方向に移動させるための駆動モータ12bと、駆動モータ12bに駆動制御信号を与えるためのフォーカスレンズ駆動回路12cと、アイリス機構の13の開口位置を検出する位置検出センサ13aと、アイリス機構13を開口及び閉口させるための駆動モータ13bと、駆動モータ13bに駆動制御信号を与えるためのアイリス機構駆動回路13cとを備えている。
尚、位置検出センサ11a、12a、13aの検出信号は常時CPU4に送られるとともに、ズームレンズ駆動回路11c、フォーカスレンズ駆動回路と12c、アイリス機構駆動回路13cは、CPU4からの制御信号が供給されるように電気的に接続されている。
また、レンズブロック1は、ズームレンズ11の焦点距離データと口径比データと、フォーカスレンズ12の焦点距離データと口径比データと、レンズブロック1の製造メーカ名及びシルアルナンバを記憶するためのEEROM15を有している。このEEPROM15に記憶されている各データは、CPU4からの読出しコマンドに基づいて読み出されるようにCPU4と接続されている。
また、レンズブロック1は、パン/チルト駆動機構16によってレンズの光軸方向が制御される。CPU4からの制御信号がモータ駆動回路16bに供給されると、モータ駆動回路16bは、CPU4からの制御信号に応じたパルスを駆動モータ16aに供給する。これによって、CPU4からの指令によって自由に光軸方向を可変制御することができる。尚、このパン/チルト駆動機構16は、このようにレンズブロック1に設けられるものに限らず、ビデオカメラ装置全体を駆動する機構として設けられても良い。
撮像ブロック2は、レンズブロック1からの入射光をレッド(R)、グリーン(G)及びブルー(B)の3原色光に色分解するための色分解プリズム21と、この色分解プリズム21で分離されたR成分、G成分、B成分の光が撮像面上に結像され、結像された各色成分の撮像光を、電気的な撮像信号(R)、(G)及び(B)に夫々変換して出力する撮像素子22R、22G、22Bとを有している。例えば、この撮像素子22R、22G、22Bは、CCD(Charge Cupled Device)から成る。
撮像ブロック2は、撮像素子22R、22G、22Bから夫々出力された撮像信号(R)、(G)、(B)のレベルを増幅すると共に、リセット雑音を除去するための相関二重サンプリングを行うためのプリアンプ23R,23G,23Bを有している。
さらに、撮像ブロック2は、内部に設けられた基準クロック発生回路からの基準クロックに基づいて、ビデオカメラ装置内の各回路が動作する際の基本クロックとなるVD信号、HD信号及びCLK信号を発生するためのタイミング信号発生回路24と、タイミング信号発生回路から供給されたVD信号、HD信号、CLK信号に基づいて、撮像素子22R、撮像素子22G、撮像素子22Bに対して駆動クロックを与えるためのCCD駆動回路25とを備えている。尚、VD信号は、1垂直期間を表すクロック信号であり、HD信号は、1水平期間を表すクロック信号であり、CLK信号は、1画素クロックを表すクロック信号であり、これらのVD信号、HD信号及びCLK信号からなるタイミングクロックは、図示はしていないが、CPU4を介してビデオカメラ装置の各回路に供給される。
信号処理ブロック3は、ビデオカメラ装置本体の内部に設けられ、撮像ブロック2から供給される撮像信号(R)、(G)、(B)に対して所定の信号処理を施すためのブロックである。信号処理ブロック3は、撮像信号(R)、(G)、(B)をアナログからディジタルのビデオ信号(R)、(G)、(B)に夫々変換するA/D変換回路31R、31G、31Bと、CPU4からのゲイン制御信号に基づいて、ディジタルビデオ信号(R)、(G)、(B)のゲインをコントロールするためのゲイン制御回路32R、32G、32Bと、ディジタルビデオ信号(R)、(G)、(B)に対して所定の信号処理を行う信号処理回路33R、33G、33Bとを備えている。この信号処理回路33R、33G、33Bは、例えば、ビデオ信号のあるレベル以上を圧縮するニー回路331R、331G、331Bと、ビデオ信号のレベルを設定されたγカーブに従って補正するγ補正回路332R、332G、332Bと、所定以下の黒レベル及び予定レベル以上の白レベルをクリップするB/Wクリップ回路333R、333G、333Bを有している。尚、この信号処理回路33R、33G、33Bは、ニー回路、γ補正回路、B/Wクリップ回路の他に、公知のブラックγ補正回路、輪郭強調回路及びリニアマトリックス回路等を備えても良い。
信号処理ブロック3は、信号処理回路33R、33G、33Bから出力されたビデオ信号(R)、(G)、(B)を受け取り、ビデオ信号(R)、(G)、(B)から、輝度信号(Y)と、色差信号(R−Y)(B−Y)を生成するためのエンコーダ37とを備えている。
信号処理ブロック3は、さらに、ゲイン制御回路32R、32G、32Bから出力されたビデオ信号(R)、(G)、(B)を受け取って、そのビデオ信号(R)、(G)、(B)に基づいて、フォーカスを制御するための評価データEと方向データDrを生成するフォーカス制御回路34と、信号処理回路33R、33G、33Bから出力されたビデオ信号(R)、(G)、(B)を受け取り、その信号レベルに基づいて、撮像素子22R、22G、22Bに入射する光量が適切な光量となるようにアイリスを制御するアイリス制御回路回路35と、信号処理回路33R、33G、33Bから出力されたビデオ信号(R)、(G)、(B)を受け取り、その信号レベルに基づいてホワイトバランス制御を行うためのホワイトバランス制御回路36とを備えている。
アイリス制御回路35は、供給されたビデオ信号(R)、(G)、(B)の信号の中で最も信号レベルが最大である信号を選択するNAM回路と、選択された信号の画面におけるエリアを分割して、各エリア毎におけるビデオ信号を全積分する積分回路よりなる。アイリス制御回路35は、この各エリア毎の積分データに基づいて、被写体の逆光照明、順光照明、フラット照明、スポット照明等のあらゆる照明条件を判断して、アイリスを制御するためのアイリス制御信号を生成し、このアイリス制御信号をCPU4に送出する。CPU4は、このアイリス制御信号に基づいて、アイリス駆動回路13cに対して制御信号を送出する。
ホワイトバランス制御回路36は、供給されたビデオ信号(R)、(G)、(B)から、(R−Y)=0、(B−Y)=0となるようにホワイトバランス制御信号を生成し、このホワイトバランス制御信号をCPU4に送出する。CPU4は、このホワイトバランス制御信号に基づいて、ゲイン制御回路32R、32G、32Bに対して、ゲイン制御信号を供給する。
さらに、信号処理ブロック3は、エリア検索回路38とフレームメモリ39とを備えている。
エリア検索回路38は、エンコーダ37からの輝度信号(Y)と色差信号(R−Y)及び(B−Y)を受け取り、この輝度信号及び色差信号に基づいて、画面全体に設定されたエリアの中から、目的物体として指定した被写体の色に一致する画素データが存在するエリアを選択するための回路である。詳しくは後述する。
フレームメモリ39は、エンコーダ37からの輝度信号(Y)と色差信号(R−Y)及び(B−Y)を受け取り、この輝度信号及び色差信号を一時的に記憶するためのメモリであって、輝度信号(Y)用のフレームメモリ、色差信号(R−Y)用のフレームメモリ及び色差信号(B−Y)用のフレームメモリの3つのフレームメモリから構成されている。この各フレームメモリに記憶されている輝度信号及び色差信号は、CPU4からの供給されるリードアドレスデータに基づいて読み出され、その読み出された輝度信号及び色差信号はCPU4に供給される。
次に、第2図を参照しながら、フォーカス制御回路34に関して詳しく説明する。
フォーカス制御回路34は、輝度信号生成回路61と、水平方向評価値生成回路62と、垂直方向評価値生成回路63と、マイクロコンピュータ64とから構成されている。
輝度信号生成回路61は、供給されたビデオ信号R,G,Bから輝度信号を生成する回路である。フォーカスが合っているかずれているかを判断するためには、コントラストが高いか低いかを判断すればよい。従って、コントラストの変化は色信号のレベル変化とは無関係であるので、輝度信号のレベルのみの変化を検出することによって、コントラストが高いか低いかを判断することができる。
輝度信号生成回路61は、供給されたビデオ信号R、G、Bに対して、
Y=0.3R+0.59G+0.11B ・・・・(1)
に基づく公知の演算を行うことによって、輝度信号Yを生成することができる。
水平方向評価値生成回路62は、水平方向の評価値を生成するための回路である。ここで、水平方向の評価値とは、輝度信号を水平方向にサンプリングした時に、輝度信号のレベルの変化がどれだけあるかを示すデータ、言い換えれば、どれだけ水平方向にコントラストがあるかを示すデータである。
水平方向評価値生成回路62は、第1の水平方向評価値E1を生成するための第1の水平方向評価値生成回路62aと、第2の水平方向評価値E2を生成するための第2の水平方向評価値生成回路62bと、第3の水平方向評価値E3を生成するための第3の水平方向評価値生成回路62cと、第4の水平方向評価値E4を生成するための第4の水平方向評価値生成回路62dと、第5の水平方向評価ち値E5を生成するための第5の水平方向評価値生成回路62eと、第6の水平方向評価値E6を生成するための第6の水平方向評価値生成回路62fと、第7の水平方向評価値E7を生成するための第7の水平方向評価値生成回路62gと、第8の水平方向評価値E8のを生成するための第8水平方向評価値生成回路62hと、第9の水平方向評価値E9を生成するための第9の水平方向評価値生成回路62iと、第10の水平方向評価値E10を生成するための第10の水平方向評価値生成回路62jと、第11の水平方向評価値E11を生成するための第11の水平方向評価値生成回路62kと、第12の水平方向評価値E12を生成するための第12の水平方向評価値生成回路621とを有している。
次に、第3図を参照しながら、さらに水平方向評価値生成回路62の詳しい構成を説明する。
水平方向評価値生成回路62の第1の水平方向評価値生成回路62aは、輝度信号の高周波成分を取り出すためのハイパスフィルタ621と、取り出した高周波成分を絶対値化することによって全て正の値を持ったデータとする絶対値化回路622と、絶対値化されたデータを水平方向に積分することによって水平方向の高周波成分のデータを累積加算する水平方向積分回路623と、水平方向に積分されたデータを垂直方向に積分する垂直方向積分回路624と、水平方向積分回路623と垂直方向積分回路に対して積分動作を可能とするエナーブル信号を送出するウインドウパルス発生回路625とを有している。
ハイパスフィルタ621は、ウインドウパルス発生回路625からの1ピクセルクロックCLKに応答して輝度信号の高周波成分をフィルタリングする1次元有限インパルス・レスポンス・フィルタから構成される。このハイパスフィルタ621は、
(1−Z-1)/(1−αZ-1)・・・・・・・(2)
で示されるカットオフ周波数特性を有している。この第1の水平方向評価値生成回路62aでは、α=0.5とされ、このαに応じた周波数特性を示すようになっている。
ウインドウパルス発生回路625は、CPU4から供給された1垂直期間を表すVDと、1水平期間を表すHDと、1ピクセルクロックを表すCLKとに基づいて動作する複数のカウンタを有している。このウインドウパルス発生回路625は、カウンタのカウント値に基づいて、水平方向積分回路623に対しては1ピクセルクロックCLK毎にエナーブル信号を供給し、垂直方向積分回路624に対しては1水平期間毎にエナーブル信号を供給する。第1の水平方向評価値回路62aのウインドウパルス発生回路625においては、ウインドウの大きさが、192画素×60画素となるように、カウンタの初期カウンタ値が設定されている。従って、水平方向評価値生成回路62から出力される第1の水平方向評価値E1は、192画素×60画素のウインドウ内に存在する全ての高周波成分を積分したデータを示していることになる。このカウンタには、CPU4からオフセット値が供給されるように、接続されている。尚、初期カウント値には、撮像画面の中心に対してウインドウの中心が一致するようにカウント値がセットされている。これに対して、CPU4から供給されるオフセット値とは、初期カウント値に加算されるカウント値を意味している。従って、CPU4からオフセット値が供給されると、カウントのカウント値が変更され、それに伴って、ウインドウの中心位置が変更される。
その他の第2の水平評価値生成回路62b〜第12の水平評価値生成回路621は、上述の第1の水平評価値生成回路62aと同じように、ハイパスフィルタ621と、絶対値化回路622と、水平方向積分回路623と、垂直方向積分回路624と、ウインドウパルス発生回路625とを夫々有している。どのような点が夫々の回路において異なっているかというと、各回路(62aから621)に設定されているフィルタ係数αとウインドウサイズの組み合わせが夫々異なっている。
従って、夫々の回路によって生成される12個の評価値E1〜E12の値は夫々異なる値をもつことになる。
第5A図には、第1の水平評価値生成回路62a〜第12の水平評価値生成回路621が、どのような値のフィルタ係数αとウインドウサイズが設定されているかを示している。なぜ、このように異なったフィルタ係数を設定するかを以下に説明する。
例えば、カットオフ周波数の高いハイパスフィルタは、ジャストフォーカス(フォーカスが合っていることを言う)の近傍において非常に適している。なぜなら、ジャストフォーカス近傍におけるレンズの動きに対して、評価値の変化割合が大きいからである。また、フォーカスが大きくずれているところでレンズを移動させたとしても、評価値の変化割合が小さいので、カットオフ周波数の高いハイパスフィルタは、フォーカスが大きくずれているところでは、適しているとは言えない。
一方、カットオフ周波数の低いハイパスフィルタは、フォーカスが大きくずれているところにおいて、適している。なぜなら、フォーカスが大きくずれているところでレンズを移動させると、評価値の変化割合が大きいからである。また、ジャストフォーカスの近傍においてレンズを移動させたとしても、評価値の変化割合が小さいので、カットオフ周波数の低いハイパスフィルタは、ジャストフォーカス近傍においては、適しているとは言えない。
つまり、カットオフ周波数の高いハイパスフィルタ及びカットオフ周波数の低いハイパスフィルタのどちらにおいても、長所及び短所があり、どちらのフィルタが最も適しているとは一言では言えない。よって、複数のフィルタ係数のハイパスフィルタを使用して複数の評価値を生成し、最も適切な評価値を選択するこがより望ましい。
本実施例における水平方向評価値生成回路62においては、第6A図に示すような複数種類のウインドウが設定されている。ウンドウパルス発生回路625の内部のカウンタに対して、CPU4からオフセット値が供給されていない場合は、これらの複数のウインドウの中心は、撮像画面の中心と一致する。ウインドウW1は192画素×60画素のウインドウあって、ウインドウW2は132画素×60画素のウインドウあって、ウインドウW3は384画素×120画素のウインドウあって、ウインドウW4は264画素×120画素のウインドウあって、ウインドウW5は768画素×240画素のウインドウあって、ウインドウW6は548画素×240画素のウインドウある。
このように複数のウインドウを設定することによって、各ウインドウに対応した夫々異なる評価値を夫々生成することができる。従って、フォーカスを合わせようとする被写体がどのような大きさであろうとも、第1の水平方向評価値生成回路62aから第12の水平方向評価値生成回路621のうちのいづれかより、適切な評価値を得ることができる。
次に、垂直方向評価値生成回路63の構成に関して、第2図及び第4図を参照して説明する。
垂直方向評価値生成回路63は、垂直方向の評価値を生成するための回路である。ここで、垂直方向の評価値とは、輝度信号を垂直方向にサンプリングした時に、輝度信号のレベルの変化がどれだけあるかを示すデータ、言い換えれば、どれだけ垂直方向のコントラストがあるかを示すデータである。
垂直方向評価値生成回路63は、第1の垂直方向評価値E13を生成するための第1の垂直方向評価値生成回路63aと、第2の垂直方向評価値E14を生成するための第2の垂直方向評価値生成回路63bと、第3の垂直方向評価値E15を生成するための第3の垂直方向評価値生成回路63cと、第4の垂直方向評価値E16を生成するための第4の垂直方向評価値生成回路63dと、第5の垂直方向評価値E17を生成するための第5の垂直方向評価値生成回路63eと、第6の垂直方向評価値E18を生成するための第6の垂直方向評価値生成回路63fと、第7の垂直方向評価値E19を生成するための第7の垂直方向評価値生成回路63gと、第8の垂直方向評価値E20を生成するための第8の垂直方向評価値生成回路63hと、第9の垂直方向評価値E21を生成するための第9の垂直方向評価値生成回路63iと、第10の垂直方向評価値E22を生成するための第10の垂直方向評価値生成回路63jと、第11の垂直方向評価値E23を生成するための第11の垂直方向評価値生成回路63kと、第12の垂直方向評価値E24を生成するための第12の垂直方向評価値生成回路631とを有している。
次に、第4図を参照しながら、さらに垂直方向評価値生成回路63の詳しい構成を説明する。
垂直方向評価値生成回路63の第1の垂直方向評価値生成回路63aは、水平方向の輝度信号のレベルの平均値データを生成する水平方向平均値生成回路631と、輝度信号の平均値データの高周波成分を取り出すためのハイパスフィルタ632と、取り出した高周波成分を絶対値化することによって全て正の値を持ったデータとする絶対値化回路633と、絶対値化されたデータを垂直方向に積分することによって高周波成分のデータを垂直方向に累積加算する垂直方向積分回路634と、水平方向平均値生成回路631及び垂直方向積分回路634に対して積分動作を可能とするエナーブル信号を送出するウインドウパルス発生回路635とを有している。
ハイパスフィルタ632は、ウインドウパルス発生回路635からの1水平期間信号HDに応答して、輝度信号の高周波成分をフィルタリングする1次元有限インパルス・レスポンス・フィルタから構成される。このハイパスフィルタ632は、第1の水平方向評価値生成回路62aのハイパスフィルタ621と同じカットオフ周波数を有している。この第1の垂直方向評価値生成回路63aでは、α=0.5とされ、このαに応じた周波数特性を示すようになっている。
ウインドウパルス発生回路635は、CPU4から供給された1垂直期間を表すVD信号と、1水平期間を表すHDと、1ピクセルクロックを表すCLKとに基づいて動作する複数のカウンタを有している。このウインドウパルス発生回路635は、カウンタのカウント値に基づいて、水平方向平均値生成回路631に対しては1ピクセルクロックCLK毎にエナーブル信号を供給し、垂直方向積分回路634に対しては1水平期間毎にエナーブル信号を供給する。第1の垂直方向評価値生成回路63aのウインドウパルス発生回路635においては、ウインドウの大きさが120画素×80画素となるようにカンタの初期カウンタ値が設定されている。従って、垂直方向評価値生成回路63から出力される評価値E13は、120画素×80画素のウインドウ内の垂直方向の高周波成分を積分したデータを示していることになる。このカウンタには、CPU4からオフセット値が供給されるように、接続されている。尚、初期カウント値には、撮像画面の中心に対してウインドウの中心が一致するようにカウント値がセットされている。これに対して、CPU4から供給されるオフセット値とは、初期カウント値に加算されるカウント値を意味している。従って、CPU4からオフセット値が供給されると、ウインドウパルス発生回路635のカウンタのカウント値が変更され、それに伴って、ウインドウの中心位置が夫々変更される。
その他の第2の垂直方向評価値生成回路63b〜第12の垂直方向評価値生成回路631は、上述の第1の垂直方向評価値生成回路63aと同じように、水平方向平均値生成回路631と、ハイパスフィルタ632と、絶対値化回路633と、垂直方向積分回路634と、ウインドウパルス発生回路635とを有している。どのような点が夫々の回路において異なっているかというと、水平方向評価値生成回路62と同じように、各回路に設定されているフィルタ係数αとウインドウサイズの組み合わせが夫々異なっている。
従って、夫々の回路によって生成される12個の評価値E13〜E24の値は夫々異なる値をもつことになる。
第5B図には、第1の垂直評価値生成回路63a〜第12の垂直評価値生成回路631に対して、どのような値のフィルタ係数αとウインドウサイズが設定されているかを示している。
本実施例における垂直方向評価値生成回路63においては、第6B図に示すような複数種類のウインドウが設定されている。ウンドウパルス発生回路625の内部のカウンタに対して、CPU4からオフセット値が供給されていない場合は、これらの複数のウインドウの中心は、撮像画面の中心と一致する。ウインドウW7は120画素×80画素のウインドウあって、ウインドウW8は120画素×60画素のウインドウあって、ウインドウW9は240画素×160画素のウインドウあって、ウインドウW10は240画素×120画素のウインドウあって、ウインドウW11は480画素×320画素のウインドウあって、ウインドウW12は480画素×240画素のウインドウある。
このように、複数のフィルタ特性及び複数のウインドウを設定した回路を夫々設けることによって、各フィルタ係数及び各ウインドウの組み合わせに対応した夫々異なる評価値を生成することができる。従って、フォーカスを合わせようとする被写体がどのような撮影状態であろうとも、複数の評価値から総合的な評価値を生成するようにしているので、どれか1つの評価値が不適切であったとしても、正確な総合評価値を得ることができる。
よって、本実施例では、12種類のウインドウサイズと2種類のフィルタ係数を組み合わせた24個の評価値生成回路を有しているので、複数種類の評価値を得ることができ、さらに、その各評価値に基づいて総合的な評価値を求めるようにしているので、評価値の精度を向上させることができる。
次に、第2図及び第7図を参照して、マイクロコンピュータ64に関して説明する。
マイクロコンピュータ64は、水平方向評価値生成回路62及び垂直方向評価値生成回路63において生成されたE1〜E24の24個の評価値を受け取るとともに、この24個の評価値に基づいて、レンズを移動する方向及び、評価値が最大となるレンズ位置、即ち、フォーカスが合っているレンズ位置を求めるための回路である。
マイクロコンピュータ64は、24個の評価値を所定のフローに従って演算するためのプログラムを記憶したROM65を有している。また、このROM65は、第7図に示すように、24個の評価値生成回路(62a〜62l,63a〜63l)の各回路から夫々出力された24個の評価値Ei(i=1,2,・・・・24)に対応するように、24個の重みデータWiが記憶されている。この重みデータWiは、24個の評価値Eiに対してプライオリティを付けるためのデータであって、重みデータWiの値が高いほど、それに対応する評価値Eiのプライオリティが高いこということになる。尚、この重みデータWiは、工場出荷時に予め設定される固定値である。
また、マイクロコンピュータ64は、24個の評価値生成回路(62a〜62l,63a〜63l)の各回路から夫々供給された24個の評価値Ei(i=1,2,・・・・,24)を、フォーカスレンズの位置と対応付けて記憶するためのRAM66を有している。ここで、レンズがX1の位置にいる時の評価値を、E1(X1)〜E241)と表すとする。まず、レンズがX1にいるときに生成された評価値E11)〜E24(X1)が、RAM66に記憶される。さらに、レンズがX1の位置からX2の位置に移動すると、レンズがX2の移動したときに生成された評価値E1(X2)〜E24(X2)がRAM66に記憶される。RAM66は、リングバッファ方式でデータが記憶されるので、記憶データがいっぱいにならない限りは、先に記憶された評価値E1(X1)〜E24(X1)は消去されることはない。また、これらの評価値Eiは、マイクロコンピュータ64によるポインタの指定によって、RAM66に記憶されるようになっている。
次に、第8図から第9図を参照して、エリア検索回路38に関して説明する。
エリア検索回路38は、撮像画面を128個のエリアに分割し、目的物体として設定された被写体と同じ色を有した画素データが、どの分割エリアに存在するのかを検索するための回路である。このエリア検索回路38においては、エンコーダから供給される全ての画素データについて、エリア検出回路38内の論理回路によって判断処理が行われる。具体的には、第8図に示されるように、1つのエリアを48画素×30画素となるように規定すると、水平方向に16個に分割され、垂直方向に8個に分割されるので、結果的には、128個のエリアが定義される。第8図に示されるように、この128個のエリアは、A000からA127のエリア番号で順に定義される。
まず、第9図を参照して、エリア検索回路38の具体的な構成に関して説明する。まず、エリア検索回路38には、エンコーダ37から、画像データ毎に、輝度信号Y、色差信号|R−Y|及び色差信号|B−Y|が供給される。また、エリア検索回路38には、CPU4から、上限輝度信号|Y0Uと、下限輝度信号|Y0Lと、上限色差信号|R0−Y0Uと、下限色差信号|R0−Y0Lと、上限色差信号|B0−Y0Uと、下限色差信号|B0−Y0Lとが供給される。さらに、エンコーダ37から供給された輝度信号Yに対して乗算される乗算係数α3、係数α4、係数α5、係数α6が、CPU4から供給される。
ここで、CPU4から供給される、上限輝度信号|Y0Uと、下限輝度信号|Y0Lと、上限色差信号|R0−Y0Uと、下限色差信号|R0−Y0Lと、上限色差信号|B0−Y0Uと、下限色差信号|B0−Y0Lとについて説明する。まず、輝度信号Y0、色差信号|R0−Y0|、色差信号|B0−Y0|は、カメラマンが目的物体として設定した被写体が有する輝度信号及び色差信号の基づいて得られる信号である。従って、目的物体が一旦設定されると、この値は変更されることは無い。ある画素データの輝度信号が、上限輝度信号|Y0Uと下限輝度信号|Y0Lの間の値であれば、目的物体の輝度信号Y0と略同じレベルの輝度信号であると判断できるように、上限輝度信号|Y0U及び下限輝度信号|Y0Lが、目的物体の輝度信号|Y0|に対して近い値を持つように設定される。また、同じように、ある画素データの色差信号|R−Y|が、上限色差信号|R0−Y0Uと下限色差信号|R0−Y0Lの間の値であれば、ある画素データの色差信号|R−Y|は、設定された目的物体の色差信号|R0−Y0|と略同じレベルであると判断できるように、上限色差信号|R0−Y0U及び下限色差信号|R0−Y0Lは、目的物体の第1の色差信号|R0−Y0|に対して近い値を持つように設定される。また、ある画素データの色差信号|B−Y|が、上限色差信号|B0−Y0Uと下限色差信号|B0−Y0Lの間の値であれば、ある画素データの色差信号|B−Y|は、目的物体の色差信号|B0−Y0|と略同じレベルであると判断できるように、上限色差信号|B0−Y0U及び下限色差信号|B0−Y0Lは、目的物体の第2の色差信号|B0−Y0|に対して近い値を持つように設定される。
エリア検索回路38は、エンコーダ37から供給された輝度信号Yに対して乗算係数α4を乗算する乗算回路71aと、輝度信号Yに対して乗算係数α3を乗算する乗算回路71bと、輝度信号Yに対して乗算係数α6を乗算する乗算回路71cと、輝度信号Yに対して乗算係数α5を乗算する乗算回路71dとを有している。さらに、エリア検索回路38は、乗算回路71aからの乗算出力と上限色差信号|R0−Y0Uの何れかを選択するスイッチ回路72aと、乗算回路71bからの乗算出力と下限色差信号|R0−Y0Lの何れかを選択するスイッチ回路72bと、乗算回路71cからの乗算出力と上限色差信号|B0−Y0Uの何れかを選択するスイッチ回路72cと、乗算回路71dからの乗算出力と下限色差信号|B0−Y0Lの何れかを選択するスイッチ回路72dとを有している。また、エリア検出回路38は、輝度信号Yと上限輝度信号|Y0Uとが供給されるコンパレータ73aと、輝度信号Yと下限輝度信号|Y0Lが供給されるコンパレータ73bと、スイッチ回路72aからの信号と色差信号|R−Y|とが供給されるコンパレータ73cと、スイッチ回路72bからの信号と色差信号|R−Y|とが供給されるコンパレータ73dと、スイッチ回路72cからの信号と色差信号|B−Y|とが供給されるコンパレータ73eと、スイッチ回路72dからの信号と色差信号|B−Y|とが供給されるコンパレータ73fとを備えている。また、エリア検索回路38は、コンパレータ73aの出力とコンパレータ73bの出力とが供給されるゲート回路74aと、コンパレータ73cの出力とコンパレータ73dの出力とが供給されるゲート回路74bと、コンパレータ73eの出力とコンパレータ73fの出力とが供給されるゲート回路74cと、ゲート回路74aの出力とゲート回路74bの出力とゲート回路74cの出力が供給されるゲート回路75を有している。
さらに、エリア検索回路38は、128個のチップ回路から構成されるのフラグ信号生成回路76を有している。128個のチップ回路は、第8図において示されるA000からA127の128個のエリアに対応するように設けられている。各チップ回路には、ゲート回路75の出力と、画像クロックCLKと、チップセレクトCSが夫々供給されている。エンコーダ37から画素データ毎に供給される輝度信号及び色信号に対応するように、画素クロックCLK及びチップセレクトCSは、CPU4から供給される。この画素クロックCLKは、各画素データの処理タイミングに応じたクロックであって、前段の論理回路によって処理された画素データが、画素データの処理タイミングに一致しているのであれば、「Low」信号をチップ回路に供給し、その他の時には「High」信号を供給する。また、チップセレクタCSは、128個のチップ回路のうち選択されているチップ回路にのみ「Low」信号が供給され、その他の選択されないチップ回路は「High」信号が供給される。
フラグ信号生成回路76に設けられた各チップ回路は、ゲート回路76aとカウンタ76bを夫々有している。従って、フラグ信号生成回路76は、128個のゲート回路76aと、128個のカウンタ76bを有している。このゲート回路76aは、供給されるゲート回路75の出力、画素クロックCLK及びチップセレクトCSの全てが「Low」の時にのみ「Low」を出力する。このカウンタ76bは、画素クロックCLKのクロックタイミングに応答して、ゲート回路76aから「Low」が供給されたときにのみカウントアップするカウンタであって、カウント値が所定数以上(本実施例では5カウント以上)になったときにフラグ信号を発生する。発生されたフラグ信号は、マルチプレクサ77に供給される。
マルチプレクサ77は、フラグ生成回路76の各チップ回路から出力されるフラグ信号を受け取って、CPU4に供給する。この時、マルチプレクサ77は、フラグ信号が出力されたチップ回路の番号をCPU4に送出する。CPU4は、この番号に基づいて、目的物体と同じ色成分を有した画素データが存在するエリアを選択することができる。
まず、エリア検索回路38において、エリアの検索処理が行われる前に、エリア検索回路38に設けられたスイッチ回路72a、72b、72c及び72dのスイッチング動作を行わなければいけないので、このスイッチング動作に関して説明する。
まず、スイッチ回路72a、72b、72c及び72dをスイッチングするためには、目的物体としてカメラマンが設定した被写体が有する輝度信号|Y0|、色差信号|R0−Y0|及び色差信号|B0−Y0|に基づいて、被写体モードを選択する必要がある。この被写体モードとは、4つのモードが設定されており、以下順次、モード0からモード3について説明する。
モード0とは、目的物体として設定された被写体が、ある程度色情報を有している場合に選択されるモードである。つまり、被写体の色成分を表す|R0−Y0|/Y0及び|B0−Y0|/Y0が所定レベル以上であることを意味する。また、別の言い方をすると、選択された目的物体の色合いが強い時である。従って、CPU4は、設定された目的物体が有する輝度信号|Y0|、色差信号|R0−Y0|及び色差信号|B0−Y0|の関係が、
α3×|Y0| ≦|R0−Y0|≦ α4×|Y0
かつ
α5×|Y0| ≦|B0−Y0|≦ α6×|Y0| ・・・・・・・・・・・(70)
で示される条件に含まれる時に、モード0を選択する。CPU4によって、被写体モードとしてモード0が選択されると、CPU4は、スイッチ回路72a、72b、72c及び72dに制御信号を供給して、スイッチ回路72a、72b、72c及び72dのスイッチング状態を、夫々、「UP」、「UP」、「UP」及び「UP」とする。一旦、スイッチングされると、被写体モードが変更されるまでは、このスイッチング状態は変更されない。
モード1とは、目的物体として設定された被写体の色成分において、赤色成分が所定レベル以上あるが、青色成分が所定レベル以上ない場合に選択されるモードである。つまり、被写体の色成分を表す|R0−Y0|/Y0が所定レベル以上あるが、|B0−Y0|/Y0が所定レベル以上無いことを意味する。従って、CPU4は、設定された目的物体が有する輝度信号|Y0|、色差信号|R0−Y0|の関係が、
α3×|Y0| ≦|R0−Y0|≦ α4×|Y0
かつ
|B0−Y0| ≦ α5×|Y0| ・・・・・・・・・・・(71)
で示される条件に含まれる時に、モード1を選択する。CPU4によって、被写体モードとしてモード1が選択されると、CPU4は、スイッチ回路72a、72b、72c及び72dに制御信号を供給して、スイッチ回路72a、72b、72c及び72dのスイッチング状態を、夫々、「UP」、「UP」、「DOWN」及び「DOWN」とする。
モード2とは、目的物体として設定された被写体の色成分において、青色成分が所定レベル以上あるが、赤色成分が所定レベル以上ない場合に選択されるモードである。つまり、被写体の色成分を表す|B0−Y0|/Y0が所定レベル以上あるが、|R0−Y0|/Y0が所定レベル以上無いことを意味する。従って、CPU4は、設定された目的物体が有する輝度信号Y0、色差信号|B0−Y0|の関係が、
|R0−Y0| ≦ α5×|Y0
かつ
α5×|Y0|≦|B0−Y0|≦ α6×|Y0| ・・・・・・・・・・・(72)
で示される条件に含まれる時に、モード2を選択する。CPU4によって、被写体モードとしてモード2が選択されると、CPU4は、スイッチ回路72a、72b、72c及び72dに制御信号を供給して、スイッチ回路72a、72b、72c及び72dのスイッチング状態を、夫々、「DOWN」、「DOWN」、「UP」及び「UP」とする。
モード3とは、目的物体として設定された被写体の色成分において、赤色成分及び青色成分が、共に、所定レベル以上ない場合に選択されるモードである。つまり、被写体の色成分を表す|R0−Y0|/Y0及び|B0−Y0|/Y0、共に、所定レベル以上無いことを意味する。もた、別の言い方をすると、この設定された目的物体の色合いが無いということを意味している。従って、CPU4は、設定された目的物体が有する輝度信号Y0、色差信号|R0−Y0|及び色差信号|B0−Y0|の関係が、上述の式(70)、式(71)及び式(72)に当てはまら無い時に、モード3を選択する。CPU4によって、被写体モードとしてモード3が選択されると、CPU4は、スイッチ回路72a、72b、72c及び72dに制御信号を供給して、スイッチ回路72a、72b、72c及び72dのスイッチング状態を、夫々、「DOWN」、「DOWN」、「DOWN」及び「DOWN」とする。
上述したスイッチング動作が終了すると、エリア検索回路38は、被写体の検索処理動作を行う。次は、この検索処理動作を、第9図を参照しながら、各被写体モードに対応するように順に説明する。
1)モード0が選択された場合
まず、選択されているモードに関係無く、コンパレータ73aは、上限輝度信号|Y0Uとエンコーダ37から供給される輝度信号Yの比較を行い、
Y ≦ |Y0U
の場合には「High」を出力し、
|Y0U≦ Y
の場合には「Low」を出力する。また、コンパレータ73bは、下限輝度信号|Y0Lとエンコーダから供給される輝度信号Yの比較を行い、
|Y0L≦ Y
の場合には「High」を出力し、
Y ≦ |Y0L
の場合には「Low」を出力する。ゲート回路74aは、コンパレータ73aとコンパレータ73bからの出力信号を受け取り、このコンパレータ73a、73bからの出力信号が共に「High」である場合には、「Low」を後段のゲート回路75に出力する。
つまり、このコンパレータ73a、73b及びゲート回路74aによって行われる演算は、
|Y0L ≦ Y ≦ |Y0U ・・・・・(74)
によって定義される。つまり、エンコーダから供給された輝度信号Yが、この(74)式で定義される条件に含まれるのであれば、ゲート回路74aから「Low」が出力されるということである。
次に、モード0が選択されている場合には、スイッチ回路72a、72bのスイッチング状態は、夫々、「UP」、「UP」となっているので、コンパレータ73cには、Y×α4と|R−Y|が供給され、コンパレータ73dには、Y×α3と|R−Y|が供給される。尚、この輝度信号Y及び色差信号|R−Y|は、エンコーダ37から供給されるデータである。コンパレータ73cは、Y×α4と|R−Y|との比較を行い、
|R−Y| ≦ Y×α4
の場合には「High」を出力し、
Y×α4≦ |R−Y|
の場合には「Low」を出力する。また、コンパレータ73dは、Y×α3と|R−Y|との比較を行い、
Y×α3≦ |R−Y|
の場合には「High」を出力し、
|R−Y| ≦ Y×α3
の場合には「Low」を出力する。ゲート回路74bは、コンパレータ73cとコンパレータ73dからの出力信号を受け取り、このコンパレータ73c、73dからの出力信号が共に「High」である場合には、「Low」を後段のゲート回路75に出力する。
つまり、このコンパレータ73c、73d及びゲート回路74bによって行われる演算は、
Y×α3≦ |R−Y| ≦ Y×α4 ・・・・(75)
によって定義される。つまり、エンコーダから供給された色差信号|R−Y|が、この(75)式で定義される条件に含まれるのであれば、ゲート回路74bから「Low」が出力されるということである。
さらに、モード0が選択されている場合には、スイッチ回路72c、72dののスイッチング状態は、夫々、「UP」、「UP」となっているので、コンパレータ73eには、Y×α6と|B−Y|が供給され、コンパレータ73fには、Y×α5と|B−Y|が供給される。尚、この輝度信号Y及び色差信号|B−Y|は、エンコーダ37から供給されるデータである。コンパレータ73eは、Y×α6と|B−Y|との比較を行い、
|B−Y| ≦ Y×α6
の場合には「High」を出力し、
Y×α6≦ |B−Y|
の場合には「Low」を出力する。また、コンパレータ73fは、Y×α5と|B−Y|との比較を行い、
Y×α5≦ |B−Y|
の場合には「High」を出力し、
|B−Y| ≦ Y×α5
の場合には「Low」を出力する。ゲート回路74cは、コンパレータ73eとコンパレータ73fからの出力信号を受け取り、このコンパレータ73e、73fからの出力信号が共に「High」である場合には、「Low」を後段のゲート回路75に出力する。
つまり、このコンパレータ73e、73f及びゲート回路74cによって行われる演算は、
Y×α5≦ |B−Y| ≦ Y×α6 ・・・・(76)
によって定義される。つまり、エンコーダから供給された色信号|B−Y|が、この(76)式で定義される条件に含まれるのであれば、ゲート回路74cから「Low」が出力されるということである。
ゲート回路75は、ゲート74a、74b及び74cからの出力信号を受け取って、ゲート74a、74b及び74cからの出力信号が全て「High」のときだけ、「Low」をフラグ生成回路76の各チップ回路に供給する。
即ち、被写体モードとしてモード0が選択されているときは、(70)式、(71)式及び(72)式の条件がみたされているときであるので、コンパレータ73a〜73f、ゲート回路74a〜74c及びゲート回路75によって行われる演算は、
|Y0L ≦Y ≦ |Y0U
かつ
Y×α3≦ |R−Y| ≦ Y×α4
かつ
Y×α5≦ |B−Y| ≦ Y×α6 ・・・・・・・・(700)
で定義することができる。モード0が選択されている時に、この(700)式の条件を満たしているということは、エンコーダ37から供給された画素データの輝度信号Y、色差信号|R−Y|及び色差信号|B−Y|が、目的物体として設定された被写体の輝度信号Y0、色差信号|R0−Y0|及び色差信号|R0−Y0|に略一致することを意味している。そして、このように目的物体の色と画素データの色とが一致した時のみ、ゲート回路75から「Low」が出力される。
2)モード1が選択された場合
モード1が選択された場合に関しては、全くモード0が選択された時に動作と同様であるので、詳しい説明は省略する。
モード0が選択されている時の動作と同様であるので、被写体モードとしてモード1が選択されているときは、コンパレータ73a〜73f、ゲート回路74a〜74c及びゲート回路75によって行われる演算は、
|Y0L ≦ Y ≦ |Y0U
かつ
Y×α3≦ |R−Y| ≦ Y×α4
かつ
|B0−Y0L ≦ |B−Y| ≦ |B0−Y0L ・・・・・・・・(701)
で定義することができる。モード1が選択されている時に、この(701)式の条件を満たしているということは、エンコーダ37から供給された画素データの輝度信号Y、色差信号|R−Y|及び色差信号|B−Y|が、目的物体として設定された被写体の輝度信号Y0、色差信号|R0−Y0|及び色差信号|R0−Y0|に略一致することを意味している。そして、モード0の時と同様に、目的物体の色と画素データの色とが一致した時のみ、ゲート回路75から「Low」が出力される。
3)モード2が選択された場合
モード2が選択された場合に関しては、全くモード0及びモード1が選択された時に動作と同様であるので、詳しい説明は省略する。
モード0が選択されている時の動作と同様であるので、被写体モードとしてモード2が選択されているときは、コンパレータ73a〜73f、ゲート回路74a〜74c及びゲート回路75によって行われる演算は、
|Y0L ≦ Y ≦ |Y0U
かつ
|R0−Y0L ≦ |R−Y| ≦ |R0−Y0L
かつ
Y×α5≦ |B−Y>| ≦ Y×α6 ・・・・・・・・(702)
で定義することができる。モード2が選択されている時に、この(702)式の条件を満たしているということは、エンコーダ37から供給された画素データの輝度信号Y、色差信号|R−Y|及び色差信号|B−Y|が、目的物体として設定された被写体の輝度信号Y0、色差信号|R0−Y0|及び色差信号|R0−Y0|に略一致することを意味している。そして、モード0の時と同様に、目的物体の色と画素データの色とが一致した時のみ、ゲート回路75から「Low」が出力される。
4)モード3が選択された場合
モード3が選択された場合に関しては、全くモード0及びモード1及びモード2が選択された時に動作と同様であるので、詳しい説明は省略する。
モード0が選択されている時の動作と同様であるので、被写体モードとしてモード3が選択されているときは、コンパレータ73a〜73f、ゲート回路74a〜74c及びゲート回路75によって行われる演算は、
|Y0L ≦Y ≦ |Y0U
かつ
Y×α3≦ |R−Y| ≦ Y×α4
かつ
Y×α5≦ |B−Y| ≦ Y×α6 ・・・・・・・・(703)
で定義することができる。モード3が選択されている時に、この(703)式の条件を満たしているということは、エンコーダ37から供給された画素データの輝度信号Y、色差信号|R−Y|及び色差信号|B−Y|が、目的物体として設定された被写体の輝度信号Y0、色差信号|R0−Y0|及び色差信号|R0−Y0|に略一致することを意味している。そして、モード0の時と同様に、目的物体の色と画素データの色とが一致した時のみ、ゲート回路75から「Low」が出力される。
さらに、第9図を参照して、被写体モードとしてモード0が選択され、目的物体と同じ色を有した複数の画素データが、第8図において示される36番目のエリアA035にのみ存在する例をあげて、エリア検索回路38の全体的な動作を説明する。
まず、エリア検索回路38には、エンコーダ37からラスタスキャンに対応するように輝度信号Y、色差信号|R−Y|及び色差信号|B−Y|が順に供給される。つまり、エリア検索回路38には、エンコーダ37からの全画素データが供給され、画素データ毎に、式(700)の条件に含まれるか否かの判断が行われる。
尚、このエリア検索回路38には、全画素データが供給されるが、式(700)で定義される条件に含まれるか否かの判断は、全て、スイッチ回路72a〜72d、コンパレータ73a〜73f及びゲート回路74a〜74c等のハードウエア回路によって行っているので、CPU4に処理負担をかけること無しに、リアルタイムに判断処理が行える。
この例において、エリアA035以外には、設定された目的物体と同じ色を有した画素データが存在しないので、エリアA035以外のエリアに存在するどの画素データがエリア検索回路38に供給されたとしても、ゲート回路75は「High」を出力する。エリアA035内の目的物体と同じ色を有した画素データがエリア検索回路38に供給されると、ゲート回路75は始めて「Low」を出力する。この時、チップセレクトCSは、エリアA035に対応する36番目のチップ回路にのみ「Low」を供給し、その他のチップ回路には「High」を供給する。また、画素クロックは、この目的物体と同じ色を有した画素データが供給されるタイミングで「Low」をチップ回路に供給する。従って、36番目のチップ回路内のゲート回路76a035は、ゲート回路75から「Low」が供給され、画素クロックCLKとして「Low」が供給され、チップセレクトとして「Low」が供給され、、この時にのみ、ゲート回路76a035は、「Low」をカウンタ76b035に供給する。カウンタ76b035は、ゲート回路76a035から「Low」が供給されるとカウントアップし、このカウント値が5カウント以上になると、フラグ信号をマルチプレクサ77に出力する。この動作は何を意味しているかというと、エリアA035には、1440個の画素データが存在し、そのうち、設定された目的物体の色と一致する画素データが5画素以上あるのであれば、フラグ信号が、エリアA035に対応するチップ回路から出力されるということである。従って、この例においては、エリアA035に対応するチップ回路のカウンタ76b035のみからフラグ信号が出力され、エリアA035以外のエリアA035に対応するチップ回路のカウンタ76bからはフラグ信号は出力されない。
マルチプレクサ77は、各チップ回路から出力されたプラグ信号をエリアと対応するようにCPU4に出力する。この場合には、エリアA035に対応する36番目のチップ回路からからフラグ信号が出力されたことをCPU4に供給する。
ハードウエアから構成されるエリア検索回路38がこのように動作することによって、CPU4は、設定した目的画素の色と同じ色を有した画素がどのエリアに存在するのかをリアルタイムに認識することができる。
次に、ビデオカメラ装置の動作を、第10図〜第16図のフローチャートを参照して説明する。
まずは、フォーカス制御動作に関して説明する。
マニュアルフォーカスからオートフォーカスへの移行は、カメラマンが操作部5に設けられたオートフォーカスボタンを押すことによって、オートフォーカスモードとなる。オートフォーカスモードは、1度押すとマニュアルフォーカスへの移行が指令されるまで、そのオートフォーカスモードを継続し続ける連続モードと、フォーカスが合うとオートフォーカスモードを停止して、自動的にマニュアルモードに移行する非連続モードとを有している。以下のフローチャートの説明は、連続モードについての説明である。尚、ステップS100〜ステップS131では、フォーカスレンズをどちらの方向に移動させるかを判定するための処理が行われ、ステップS201〜ステップS221では、評価値が最大となるレンズ位置を求めるための処理が行われる。
まず、ステップS100〜ステップS104においては、第17図に示すように、フォーカスレンズは、CPU4からの指令に基づいて、レンズ初期位置X0からFar方向にD/2の距離にある位置X1に移動し、X1からNear方向にDの距離にある位置X2に移動し、X2からFar方向にD/2の距離にある位置つまり、レンズ初期位置X0に戻る動作を行う。尚、Near方向とは、撮像素子側に近づく方向を意味し、Far方向とは、撮像素子から離れる方向を意味する。また、Dは焦点深度を表している。マイクロコンピュータ64は、レンズ位置X0、X1、X2において、水平方向評価値生成回路62及び垂直方向評価値生成回路63において生成された、評価値Ei(X0)、評価値Ei(X1)、評価値Ei(X2)を、RAM66に記憶する。
ここで、フォーカスレンズをなぜX0からD/2以上移動させないかを説明する。焦点深度とは、焦点を中心としてフォーカスが合っている範囲を示すデータである。従って、焦点深度内でフォーカスレンズを移動させたとしても、それによってフォーカスのずれは人間の目によって認識できない。逆に、レンズをX1からX2へ移動させる時に、焦点深度以上移動させると、その移動によってフォーカスのずれが撮像信号に現れてくる。つまり、レンズの最大移動を焦点深度以内とすることによって、フォーカスのずれを認識することがない。
次にステップS100〜ステップS104の各ステップに関して第17図を参照しながら詳しく説明する。
ステップS100では、マイクロコンピュータ64は、水平方向評価値生成回路62及び垂直方向評価値生成回路63において生成された評価値E1(X0)〜評価値E24(X0)を、RAM66に記憶する。記憶し終えると、マイクロコンピュータ64は、CPU4に対してフォーカスレンズをD/2の距離だけFar方向に移動するように指令を出す。
ステップS101では、CPU4は、フォーカスレンズモータ駆動回路12cに対してコマンドを出力し、フォーカスレンズをD/2の距離だけFar方向に移動させる。
ステップS102では、マイクロコンピュータ64は、水平方向評価値生成回路62及び垂直方向評価値生成回路63において新たに生成された評価値E1(X1)〜評価値E24(X1)を、RAM66に記憶する。評価値を記憶し終えると、マイクロコンピュータ64は、CPU4に対してフォーカスレンズをDの距離だけNear方向に移動するように指令を出す。
ステップS103では、CPU4は、フォーカスレンズモータ駆動回路12cに対してコマンドを出力し、フォーカスレンズをDの距離だけNear方向に移動させる。
ステップS104では、マイクロコンピュータ64は、水平方向評価値生成回路62及び垂直方向評価値生成回路63において新たに生成された評価値E1(X2)〜評価値E24(X2)を、RAM66に記憶する。記憶し終えると、マイクロコンピュータ64は、CPU4に対してフォーカスレンズをD/2の距離だけFar方向に移動するように指令を出す。
従って、ステップS104を終了すると、マイクロコンピュータ64のRAM66には、レンズ位置X0における評価値E1(X0)〜E24(X0)と、レンズ位置X1における評価値E1(X1)〜E24(X1)と、レンズ位置X0における評価値E1(X2)〜E24(X2)とが記録されていることになる。
ステップS105〜ステップS115は、24個の評価値の中から不適切な評価値を選択するためのフローである。
まず、第18A図及び第18B図を参照して、ステップS105〜ステップS115の動作を基本的な考え方を説明する。
第18A図及び第18B図は、ウインドウW2の中にファーカスを合わせようとするターゲット物体Aが撮像され、ウインドウW2の外であってウインドウW1の内部に、ターゲット物体Aより手前に存在するコントラストの高い非ターゲット物体Bが撮像されている状態を示している。このとき、この物体BがウインドウW1の枠内に存在しているので、ウインドウW1の値が設定された第1の水平方向評価値生成回路62aによって生成された評価値E1には、物体Bの高周波成分が含まれてしまい、物体Aの評価値としては適切でない。よって、評価値E1の値は、ウインドウW2の値が設定された第2の水平方向評価値生成回路62bによって生成された評価値E2の値よりもかなり大きくなってしまう。同様に、ウインドウW1の値が設定された第7の水平方向評価値生成回路62gによって生成された評価値E7には、物体Bの高周波成分が含まれてしまい、物体Aの評価値としては適切でない。よって、評価値E7の値は、ウインドウW2の値が設定された第8の水平方向評価値生成回路62hによって生成された評価値E8の値よりもかなり大きくなってしまう。
また、ウインドウW2の中には非ターゲット物体Bが存在しないので、評価値E2又は評価値E8の値が適切か否かというと、決して適切ではないと言える。その理由を第18B図を参照して説明する。第18B図は、フォーカスを物体Aに合わせるようにレンズを移動させた場合を示している。物体Aに対してフォーカスを合わせれば合わせるほど、物体Bに対するフォーカスが大きくずれるということになる。物体Bのフォーカスが大きくずれると、物体Bの映像が大きくぼやけてしまい、そのぼやけた映像がウインドウW2に入ってくる。従って、第18A図及び第18B図の状態の場合は、ウインドウW2の値が設定された第2の水平方向評価値生成回路62bによって生成された評価値E2の値は決して適切であるとは言えない。同様に、ウインドウW2の値が設定された第8の水平方向評価値生成回路62hによって生成された評価値E8の値は決して適切であるとは言えない。
このように、ウインドウW1によって得られた評価値E1及びE7、ウインドウW2によって得られた評価E2及びE8が適切か否かを判断するためには、
Figure 0003791012
を判断すればよい。尚、βは予め実験的な結果によって設定された係数であって、ここでは例えば、β=0.01とされているが、(E1×β)及び(E7×β)を(3)式に使用せずに、(E1×β)及び(E7×β)の代わりに実験的に得られた所定値を(3)式に使用しても結果は同じである。
この(3)式の演算結果に基づく判断は、|E1−E2|及び|E7−E8|の値が所定値以下であれば、評価値E1とE2の間の差はほとんど無いと判断でき、且つ、評価値E7とE8の間の差はほとんど無いと判断できる。従って、第18A図で示されるような非ターゲット物体Bは無いと判断する。|E1−E2|及び|E7−E8|の値が所定値以上であれば、評価値E1とE2の間の差が大きいと判断でき、且つ、評価値E7とE8の間の差が大きいと判断できる。従って、第18A図で示されるような非ターゲット物体Bが存在すると判断する。つまり、(3)式を演算し、この(3)式に当てはまるのであれば、評価値E及びE2、評価値E7及びE8は適切であり、この(3)式に当てはまらいのであれば、評価値E1及びE2、評価値E7及びE8は不適切であるということになる。
次に、上述の基本的な考えたを考慮して、第10図及び第11図を参照しながら、ステップS105〜ステップS115を具体的に説明する。
ステップS105では、レンズ位置がX0の時に得られたE1(X0)〜E24(X0)を使用して、
|E1(X0)−E2(X0)|≦ E1(X0)×β1
かつ
|E7(X0)−E8(X0)|≦ E7(X0)×β1 ・・・・・(105)
を判断する。評価値E1、E2、E7及びE8が、この(105)式に当てはまる値であるのであれば、評価値E1、E2、E7及びE8は適切な値であると判断してステップS117に進む。逆に、評価値E1、E2、E7及びE8が、この(105)式に当てはまらない値であれば、少なくとも、評価値E1、E2、E7及びE8は不適切な値であると判断してステップS106に進む。
ステップS106では、ステップS105における演算結果によって評価値E1及びE2、評価値E7及びE8が不適切であると判断されたので、ウインドウW1の次に大きなウインドウW3に基づいて得られた評価値E3及びE9を使用すると共に、ウインドウW2の次に大きなウインドウW4に基づいて得られた評価値E4及びE10を使用する。
ステップS106では、ステップS105と同様に、レンズ位置がX0の時に得られたE1(X0)〜E24(X0)を使用して、
|E3(X0)−E4(X0)|≦ E3(X0)×β1
かつ
|E9(X0)−E10(X0)|≦ E9(X0)×β1 ・・・・・(106)
を判断する。評価値E3、E4、E9及びE10が、この(106)式に当てはまる値であるのであれば、評価値E3、E4、E9及びE10は適切な値であると判断してステップS107に進む。逆に、評価値E3、E4、E9及びE10が、この(106)式に当てはまらない値であれば、少なくとも、評価値E3、E4、E9及びE10は不適切な値であると判断してステップS108に進む。
ここで、なぜ、さらに大きなウインドウW3及びW4を使用するのかを説明する。上述したように、第18A図で示される状態では、評価値E1及びE2、評価値E7及びE8が不適切であるので、フォーカスをターゲット物体A又は非ターゲット物体Bの何れにも合わせることができない。しかし、ウインドウW1及びW2に対して、さらに大きなウインドウW3及びW4を使用すると、非ターゲット物体BがウインドウW4の内に入ってしまうことが考えられる。もし、完全に非ターゲット物体BがウインドウW4の内に入ってしまった場合は、評価値E3と評価値E4の間の差が小さくなると共に、評価値E9とE10の間の差が小さくなる。つまり、評価値E3、E4、E9及びE10が、この(106)式に当てはまる値であることになる。その結果、評価値E3、E4、E9及びE10は適切な値となっているので、フォーカスが非ターゲット物体Bに合うことになる。本来であれば、ターゲット物体Aにフォーカスを合わせるべきであるが、物体Aにフォーカスを合わせようとすると、適切な評価値が得られていないので、オートフォーカス制御回路34が何度も制御ループを繰り返して、長時間、フォーカスレンズを移動させ続けることになる。従って、ループが繰り返されている間、ぼやけた撮像信号を出力し続けなければいけなくなる。しかし、非ターゲット物体Bにフォーカスを合わせてしまうことによって、長時間、制御ループが繰り返えされ、ぼやけた撮像信号を出力し続けることを防止することができる。
ステップS107では、ステップS105で判断された評価値E1、E2、E7及びE8は不適切な値であるという結果と、ステップS106で判断された評価値E3、E4、E9及びE10は適切な値であるという結果に基づいて、i=1,2,7,8の番号のみを不使用番号として定義し、ステップS117に進む。このステップS107で不使用番号としてi=1,2,7,8が定義されたので、このステップS107以降のステップにおいて、評価値E1、E2、E7及びE8が使用されることは無い。
ステップS108では、ステップS106における演算結果によって評価値E3及びE4、評価値E9及びE10が不適切であると判断されたので、ウインドウW3の次に大きなウインドウW5に基づいて得られた評価値E5及びE11を使用すると共に、ウインドウW4の次に大きなウインドウW6に基づいて得られた評価値E6及びE12を使用する。
ステップS108では、ステップS106と同様に、レンズ位置がX0の時に得られたE1(X0)〜E24(X0)を使用して、
|E5(X0)−E6(X0)|≦ E5(X0)×β1
かつ
|E11(X0)−E12(X0)|≦ E11(X0)×β1 ・・・・・(108)
を判断する。評価値E5、E6、E11及びE12が、この(108)式に当てはまる値であるのであれば、評価値E5、E6、E11及びE12は適切な値であると判断してステップS109に進む。逆に、評価値E5、E6、E11及びE12が、この(108)式に当てはまらない値であれば、少なくとも、評価値E5、E6、E11及びE12は不適切な値であると判断してステップS110に進む。
ステップS109では、ステップS105で判断された評価値E1、E2、E7及びE8は不適切な値であるという結果と、ステップS106で判断された評価値E3、E4、E9及びE10は不適切な値であるという結果と、ステップS108で判断された評価値E5、E6、E11及びE12は適切な値であるという結果に基づいて、i=1,2,3,4,7,8,9,10の番号のみを不使用番号として定義し、ステップS117に進む。このステップS109で不使用番号としてi=1,2,3,4,7,8,9,10が定義されたので、このステップS109以降のステップにおいて、評価値E1、E2、E3、E4、E7、E8、E9及びE10は、使用されることは無い。
ステップS108では、ステップS106における演算結果によって評価値E3及びE4、評価値E9及びE10が不適切であると判断されたので、ウインドウW3の次に大きなウインドウW5に基づいて得られた評価値E5及びE11を使用すると共に、ウインドウW4の次に大きなウインドウW6に基づいて得られた評価値E6及びE12を使用する。
ステップS110では、ステップS108と同様に、レンズ位置がX0の時に得られたE1(X0)〜E24(X0)を使用して、
|E13(X0)−E14(X0)|≦ E13(X0)×β2
かつ
|E19(X0)−E20(X0)|≦ E19(X0)×β2 ・・・・・(110)
を判断する。評価値E13、E14、E19及びE20が、この(110)式に当てはまる値であるのであれば、評価値E13、E14、E19及びE20は適切な値であると判断してステップS111に進む。逆に、評価値E13、E14、E19及びE20が、この(110)式に当てはまらない値であれば、少なくとも、評価値E13、E14、E19及びE20は不適切な値であると判断してステップS112に進む。
ステップS111では、ステップS105で判断された評価値E1、E2、E7及びE8は不適切な値であるという結果と、ステップS106で判断された評価値E3、E4、E9及びE10は不適切な値であるという結果と、ステップS108で判断された評価値E5、E6、E11及びE12は不適切な値であるという結果と、ステップS110で判断された評価値E13、E14、E19及びE20は適切な値であるという結果とに基づいて、i=1〜12の番号のみを不使用番号として定義し、ステップS117に進む。このステップS111で不使用番号としてi=1〜12が定義されたので、このステップS111以降のステップにおいて、評価値E1〜E12は使用されることは無い。
ステップS112では、ステップS110と同様に、レンズ位置がX0の時に得られたE1(X0)〜E24(X0)を使用して、
|E15(X0)−E16(X0)|≦ E15(X0)×β2
かつ
|E21(X0)−E22(X0)|≦ E21(X0)×β2 ・・・・・(112)
を判断する。評価値E15、E16、E21及びE22が、この(112)式に当てはまる値であるのであれば、評価値E15、E16、E21及びE22は適切な値であると判断してステップS113に進む。逆に、評価値E15、E16、E21及びE22が、この(112)式に当てはまらない値であれば、少なくとも、評価値E15、E16、E21及びE22は不適切な値であると判断してステップS114に進む。
ステップS113では、ステップS105で判断された評価値E1、E2、E7及びE8は不適切な値であるという結果と、ステップS106で判断された評価値E3、E4、E9及びE10は不適切な値であるという結果と、ステップS108で判断された評価値E5、E6、E11及びE12は不適切な値であるという結果と、ステップS110で判断された評価値E13、E14、E19及びE20は不適切な値であるという結果と、ステップS112で判断された評価値E15、E16、E21及びE22は適切な値であるという結果とに基づいて、i=1〜14,19,20の番号のみを不使用番号として定義し、ステップS117に進む。このステップS113で不使用番号としてi=1〜12,19,20が定義されたので、このステップS113以降のステップにおいて、評価値E1〜E14、E19、E20は使用されることは無い。
ステップS114では、ステップS110と同様に、レンズ位置がX0の時に得られたE1(X0)〜E24(X0)を使用して、
|E17(X0)−E18(X0)|≦ E17(X0)×β2
かつ
|E23(X0)−E24(X0)|≦ E23(X0)×β2 ・・・・・(114)
を判断する。評価値E17、E18、E23及びE24が、この(114)式に当てはまる値であるのであれば、評価値E17、E18、E23及びE24は適切な値であると判断してステップS115に進む。逆に、評価値E17、E18、E23及びE24が、この(114)式に当てはまらない値であれば、少なくとも、評価値E17、E18、E23及びE24は不適切な値であると判断してステップS116に進む。
ステップS115では、ステップS105で判断された評価値E1、E2、E7及びE8は不適切な値であるという結果と、ステップS106で判断された評価値E3、E4、E9及びE10は不適切な値であるという結果と、ステップS108で判断された評価値E5、E6、E11及びE12は不適切な値であるという結果と、ステップS110で判断された評価値E13、E14、E19及びE20は不適切な値であるという結果と、ステップS112で判断された評価値E15、E16、E21及びE22は不適切な値であるという結果と、ステップS114で判断された評価値E17、E18、E23及びE24は適切な値であるという結果とに基づいて、i=1〜16,19〜22の番号のみを不使用番号として定義し、ステップS117に進む。このステップS115で不使用番号としてi=1〜16,19〜22が定義されたので、このステップS115以降のステップにおいて、評価値E1〜E16、E19〜E22は使用されることは無い。
ステップS116に至るということは、全ての評価値E1〜E24が不適切であるということであるので、オートフォーカス動作は不可能と判断して、マニュアルフォーカスモードに移行して、終了する。
以上で、24個の評価値の中から不適切な評価値を選択するためのステップを終了する。
第12図及び第13図に示される、ステップS117〜ステップS131は、レンズ移動方向を決定する具体的な動作フローである。ステップS117〜ステップS131は、マイクロコンピュータ64によって行われるステップである。
ステップS117では、i=1にセットすると共に、アップカウント値Ucnt,ダウンカウント値Dcnt,フラットカウント値Fcntをリセットする。
ステップS118では、iが不使用番号として定義されている番号であるか否かを判断する。iが不使用番号として定義されていないのであれば、ステップS120に進む。もし、iが不使用番号として定義されている番号であるのであれば、ステップS119において、iをインクリメントして次のiの番号に進む。
ステップS120では、Ei(X0)が、Ei(X2)と同程度での値ではなくて、ある程度Ei(X2)よりも大きい値を有し、且つ、Ei(X1)が、E(X0)と同程度での値ではなくて、ある程度Ei(X0)よりも大きい値を有している場合の判断である。さらに分かり易く説明すると、フォーカスレンズが、X2、X0、X1というようにFar方向に移動すると、評価値がEi(X2)、Ei(X0)、Ei(X1)の順にアップしているか否かという判断である。具体的には、
i(X2) × β3 < Ei(X0
かつ
i(X0) × β3 < Ei(X1) ・・・・・・・・・(120)
の演算を行うことによって判断される。ここで、β3は実験的に求められる係数であって、本実施例においては、β3=1.03とされている。式(120)の条件に一致するということは、フォーカスレンズが、X2、X0、X1というように移動すると評価値が順にアップすることを意味し、次のステップS121に進む。式(120)の条件からはずれる時は、ステップS122に進む。
ステップS121では、アップカウント値Ucntに重みデータWiを加算してステップS126の進む。
ステップS122では、Ei(X0)が、Ei(X1)と同程度での値ではなくて、ある程度Ei(X1)よりも大きい値を有し、且つ、Ei(X2)が、Ei(X0)と同程度での値ではなくて、ある程度Ei(X0)よりも大きい値を有している場合の判断である。さらに分かり易く説明すると、フォーカスレンズが、X2、X0、X1というようにFar方向に移動すると、評価値がEi(X2)、Ei(X0)、Ei(X1)の順にダウンしているか否かという判断である。具体的には、
i(X1) × β3 < Ei(X0
かつ
i(X0) × β3 < Ei(X2) ・・・・・・・・・(122)
の演算を行うことによって判断される。式(122)の条件に一致するということは、フォーカスレンズが、X2、X0、X1というように移動すると評価値が順にダウンすることを意味し、次のステップS123に進む。式(122)の条件からはずれる時は、ステップS124に進む。
ステップS123では、ダウンカウント値Dcntに重みデータWiを加算してステップS126の進む。
ステップS124では、Ei(X0)が、Ei(X1)と同程度での値ではなくて、ある程度Ei(X1)よりも大きい値を有し、且つ、Ei(X0)が、Ei(X2)と同程度での値ではなくて、ある程度Ei(X2)よりも大きい値を有している場合の判断である。さらに分かり易く説明すると、フォーカスレンズが、X2、X0、X1というようにFar方向に移動すると、評価値のピークがEi(X0)にあるということである。具体的には、
i(X1) × β3 < Ei(X0
かつ
i(X2) × β3 < Ei(X0) ・・・・・・・・・(124)
の演算を行うことによって判断される。式(124)の条件に一致するということは、フォーカスレンズが、X2、X0、X1というように移動すると評価値のピークがEi(X0)にあるということを意味し、次のステップS125に進む。式(124)の条件からはずれる時は、ステップS126に進む。
ステップS125では、フラットカウント値Fcntに重みデータWiを加算してステップS126の進む。
ステップS126では、iをインクリメントしてステップS127に進む。
ステップS127では、水平方向評価値生成回路62及び垂直方向評価値生成回路63において評価値Eは24個生成されるので、iが24であるかを判断する。iが24であれば、全ての評価値に対する演算が終了したと判断して、ステップS128に進む。iが24でない時は、iが24になるまで、ステップS118からステップS127によって構成されるループが繰り返される。
ステップS128では、アップカウント値Ucntと、ダウンカウント値Dcntと、フラットカウント値Fcntとを比較して、どのカウント値が最も大きい値であるかを判断する。アップカウント値Ucntが最も大きい値であれば、ステップS129に進み、ダウンカウント値Dcntが最も大きい値であれば、ステップS130に進み、フラットカウント値Fcntが最も大きい値であれば、ステップS131に進む。
ステップS129では、マイクロコンピュータ64は、X1の方向が、評価値の山登り方向、即ち、フォーカスが合う方向であると判断し、CPU4に対してレンズ移動方向としてFar方向を指定する。
ステップS130では、マイクロコンピュータ64は、X2の方向が評価値の山登り方向、即ち、フォーカスが合う方向であると判断し、CPU4に対してレンズ移動方向としてNear方向を指定する。
ステップS131では、マイクロコンピュータ64は、X0の位置がフォーカスが合う位置と判断して、ステップS218に進む。
上述したステップS118〜ステップS131の動作を、第19図に示される例を参照しながら、分かり易く説明する。第19図は、レンズ位置X2、X0、X1における評価値Ei(X2)、Ei(X0)、Ei(X1)の変化の推移を、ある一例として示した図である。
まず、ステップS118において、iが不使用番号であるか否かを判断するが、ここでは、全てのiを使用可能であるとする。
まず1回目のループでは、E1に関する判定が行われ、
1(X2) < E1(X0) < E1(X1)であるので、ステップS120の条件に一致し、ステップS121に進む。
従って、ステップS121において、Ucnt=0×W1の演算が行われる。
2回目のループでは、E2に関する判定が行われ、
2(X2) < E2(X0) < E2(X1)であるので、ステップS120の条件に一致し、ステップS121に進む。
従って、ステップS121においてUcnt=W1×W2の演算が行われる。
次の3回目、4回目及び5回目のループでは、上述の1回目及び2回目のループと同じような演算が行われ、5回目のループのステップS121において、
Ucnt=W1+W2+W3+W4+W5の演算が行われる。
6回目のループでは、E6に関する判定が行われ、
6(X2) < E6(X0) > E6(X1)であるので、ステップS124の条件に一致し、ステップS125に進む。
従って、ステップS125においてFcnt=0+W6の演算が行われる。
このようにして24回のループを繰り返すと、最終的には、
Ucnt=W1+W2+W3+W4+W5+W7+W8+W9+W11+W13+W14+W15+W17+W18+W21+W24
Dcnt=W10+W16+W22
Fcnt=W6+W12+W19
で示される演算を行うことになる。よって、このアップカウント値Ucnt、ダウンカウント値Dcnt及びフラットカウント値Fcntに対して、第7図に一例として示される重みデータWiの値を代入すと、
Ucnt=124
Dcnt=13
Fcnt=18
という結果になる。
従って、ステップS128の判断において、アップカウント値Ucntが最も大きい値を有するので、第19図で示される例においては、ステップS129に進むことになる。従って、フォーカス方向は、X1方向と判定される。
次のステップS200からステップS221は、評価値が最大となるレンズ位置を決定するためのフローである。この動作フローは、マイクロコンピュータ64によって処理される動作フローである。ステップS200からステップS221を、第13図〜第15図を参照しながら具体的に説明する。
ここで、以下のステップS200以降の説明をより明確にするために、
Figure 0003791012
と定義する。
尚、本実施例では、1フィールド毎に評価値をサンプリングしているので、このΔXで示される距離を、1フィールド間にフォーカスレンズが移動する距離と定義する。従って、距離ΔXは、1フィールド期間でレンズが進む距離を表している。また、この距離ΔXは、1フィールド期間でレンズが進む距離を表しているだけでは無くて、ステップS100からステップS130によって求められたレンズ移動方向に基づいて、ΔXの極性が決定される。例えば、レンズの移動方向がFar方向であれば、ΔXは正の極性を持つようにセットされ、レンズの移動方向がNear方向であれば、ΔXは負の極性を持つようにセットされる。
なお、サンプリング周波数は、本実施例に限定されない。例えば、1フィールドに2回サンプリングしたり、適宜変更することができる。
まず、ステップS200では、k=1にセットする。
ステップS201では、マイクロコンピュータ64は、CPU4に対してレンズをXkの位置に移動させるように指令を出す。ここで、レンズ位置Xkは、式(200)に基づいて、
k = X0+ k×ΔX
で定義される。
ステップS202では、マイクロコンピュータ64は、水平方向評価値生成回路62及び垂直方向評価値生成回路63において新たに生成された評価値E1(XK)〜評価値E24(XK)をRAM66に記憶する。尚、24個の評価値Eiは、第20図に示されるようにテーブル状に記憶される。
ステップS203では、i=1,j=1にセットすると共に、アップカウント値Ucnt,ダウンカウント値Dcnt,フラットカウント値Fcntをリセットする。
ステップS204では、iが不使用番号として定義されている番号であるか否かを判断する。iが不使用番号として定義されていないのであれば、ステップS206に進む。もし、iが不使用番号として定義されている番号であるのであれば、ステップS205において、iをインクリメントして再びステップS204に戻る。
ステップS206では、フォーカスレンズが、Xk-1からXkで示される位置に移動したときに得られる評価値Ei(Xk)が、評価値Ei(Xk-1)に対してある程度以上アップしているか否かという判断を行う。具体的には、
i(Xk-1) × β4 < Ei(Xk) ・・・・・・・(206)
の演算を行うことによって判断される。ここで、β4は実験的に求められる係数であって、本実施例においては、β4=1.05としている。式(206)の条件に一致するということは、評価値Ei(Xk)が、評価値Ei(Xk-1)に対してある程度以上アップしていることを示す。この場合は、次のステップS207に進む。式(206)の条件からはずれる時は、ステップS209に進む。
ステップS207では、評価値Ei(Xk)が、評価値Ei(Xk-1)に対してある程度以上アップしているので、U/D情報(アップ/ダウン情報)として、アップしていることを示す2ビットのデータ「01」を、評価値Ei(Xk)と関連付けて、RAM66に記憶する。
ステップS208では、ステップS121と同様に、アップカウント値Ucntに重みデータWiを加算して、ステップS214に進む。
ステップS209では、フォーカスレンズが、Xk-1からXkで示される位置に移動したときに得られた評価値Ei(Xk)が、評価値Ei(Xk-1)に対してある程度以上ダウンしているか否かという判断を行う。具体的には、
i(Xk) × β4 < Ei(Xk-1) ・・・・・・・(209)
の演算を行うことによって判断される。式(209)の条件に一致するということは、評価値Ei(Xk)が、評価値Ei(Xk-1)に対してある程度以上ダウンしていることを示す。この場合は、次のステップS210に進む。式(209)の条件からはずれる時は、ステップS212に進む。
ステップS210では、評価値Ei(Xk)が、評価値Ei(Xk-1)に対してある程度以上ダウンしているので、U/D情報(アップ/ダウン情報)として、ダウンしていることを示す2ビットのデータ「10」を、評価値Ei(Xk)と関連付けて、RAM66に記憶する。
ステップS211では、ステップS123と同様に、ダウンカウント値Dcntに重みデータWiを加算して、ステップS214に進む。
ステップS212に至るということは、ステップS206の条件及びステップS209の条件から考慮すると、フォーカスレンズが、Xk-1からXkで示される位置に移動したときに得られた評価値Ei(Xk)が、評価値Ei(Xk-1)に対して、ある程度以上の変化が無かったということを意味している。
従って、ステップS212では、U/D情報(アップ/ダウン情報)として、フラットであることを示す2ビットのデータ「00」を、評価値Ei(Xk)と関連付けて、RAM66に記憶する。
ステップS213では、ステップS125と同様に、フラットカウント値Fcntに重みデータWiを加算して、ステップS214に進む。
ステップS214では、iをインクリメントして、ステップS215に進む。
ステップS215では、iが24であるかを判断する。iが24であれば、全ての評価値に対する演算が終了したと判断して、ステップS216に進む。iが24でない時は、iが24になるまで、ステップS204からステップS215によって構成されるループが繰り返される。
ステップS216では、ダウンカウント値Dcntが最も大きい値を持つか否かを判断するためのステップである。
ここで、第20図を例にあげ、このステップS216に関して説明する。この第20図は、各評価値と各アップ/ダウン情報のRAM66における記憶状態を示している図である。第20図に示されるように、マイクロコンピュータ64は、移動したレンズ位置XKに対応するように、各評価値と各アップ/ダウン情報とを関連つけてRAM66に記憶するようにしている。
まず、レンズ位置がXKである時は、ステップS204からステップS215のループが繰り返されると、アップカウント値Ucnt、ダウンカウント値Dcnt及びフラットカウント値Fcntは以下のようになる。
Ucnt=W1+W2+W4+W5+W8+W9+W11+W14+W15+W16+W19+W23
Dcnt=W7+W10+W17+W18+W20+W21+W24
Fcnt=W3+W6+W12+W13+W22
このアップカウント値Ucnt、ダウンカウント値Dcnt及びフラットカウント値Fcntに対して、第7図に一例として示される重みデータWiの値を代入すると、
Ucnt=95
Dcnt=34
Fcnt=31
という結果になる。つまり、この結果から、個々の評価値においては、アップ、ダウン、フラット等のばらつきがあるが、総合的に見ると評価値はアップしていると判断することができる。
以下、このようにステップS216において総合的に判断した評価値を「総合的評価値」と呼ぶことにする。従って、ステップS216を別の言葉で表現すると、ステップS216は、総合的評価値がダウンしているか否かを判断するためのステップであるというように表現できる。
次に、第20図に示される、レンズ位置がXK+1の時の場合について考えてみる。レンズ位置がXK+1の時に、ステップS204からステップS215のループが繰り返されると、アップカウント値Ucnt、ダウンカウント値Dcnt及びフラットカウント値Fcntは以下のようになる。
Ucnt=W5+W11+W12+W17+W18+W20+W23
Dcnt=W1+W2+W3+W6+W7+W8+W10+W13+W14+W15+W16+W19+W21+W22+W24
Fcnt=W4+W9
このアップカウント値Ucnt、ダウンカウント値Dcnt及びフラットカウント値Fcntに対して、第7図に一例として示される重みデータWiの値を代入すると、
Ucnt=29
Dcnt=113
Fcnt=18
という結果になる。つまり、この結果から、総合的評価値はダウンしていると判断することができる。このように、ステップS216において、総合的評価値がダウンしていると判断した時には、ステップS217に進む。
ステップS217では、jをインクリメントして、ステップS218へ進む。このjは、ステップS216の判断結果が何回連続してYESとなったかを示す値、即ち、何回連続して総合的評価値がダウンしてかを示す値である。
ステップS218では、総合評価値が連続してダウンし始めるレンズ位置の最初にダウンしたレンズ位置をXK+1とすると、このステップS218では、XKからのレンズの移動距離(Xk+j)が、D×nより大きいか否かを判断する。実際に判断を行うための式は、
ΔX × j ≧ D × n ・・・・・(218)
で表される。尚、Dはフォーカスレンズの焦点深度を表し、nは予め設定されている係数を表す。但し、実験結果によると、nを、1≦n≦10の範囲に設定すると、最適な速度でオートフォーカス動作を実現できる。
ここで、第21図を参照しながらステップS218の判断動作に関して説明する。この第21図の横軸は、レンズの位置Xを表し、縦軸はレンズの位置に対する評価値E(X)を表している。
j=1の時は、総合評価値が最初にダウンした時のレンズ位置であるので、j=1に対応するレンズ位置はXK+1である。よって、式(218)の左辺(ΔX×j)は、総合評価値がダウンし始める前のレンズ位置XKから、総合評価値が最初にダウンし始めたレンズ位置XK+1の距離を表す。従って、第21図からも判るように、j=1の時は、ステップS218の判断結果はNOである。
j=2の時は、総合評価値が2回連続でダウンした時のレンズ位置であるので、j=2に対応するレンズ位置はXK+2である。よって第21図から、式(218)の左辺(ΔX×j)は、総合評価値がダウンし始める前のレンズ位置XKから、総合評価値が2回連続でダウンし始めたレンズ位置XK+2の距離を表す。従って、j=2の時は、第21図からも判るように、(ΔX×j)≧D×nとなって、ステップS218の判断結果はYESとなる。
一方、ステップS216において、ダウンカウント値Dcntが最も大きい値を有していないと判断されたときは、総合評価値がダウンしていないと判断し、ステップS219に進む。
ステップS219では、j=0とする。これはjをリセットするためのステップである。なぜjをリセットするかと言うと、jは、何回連続して総合評価値がダウンしたかを示す値であるからである。さらに詳しく説明すると、ステップS219に至るということは、ステップS216の判定結果で総合評価値はダウンしていないと判断されたことを意味しているので、このステップS216の判断において、総合評価値の連続ダウンがストップしていることになる。したがって、このステップS219において、jがリセットされる。
総合評価値の連続ダウンが途切れたときには、jをリセットするようにしているので、例えば、ある評価値E(XK)が単なるノイズによる極大値であったとしても、評価値E(XK+1)又はE(XK+2)の演算ループにおいて、jがリセットされるので、その評価値E(XK)が最大と認識されることはない。
ステップS220では、フォーカスレンズをさらに移動させるためにkをインクリメントして、ステップS201へ戻る。
ステップS218の判断結果がYESとなると、ステップS221に進む。ステップS221では、評価値が最大となるレンズ位置Xg(以下、このXgをジャストフォーカス位置と定義する。)を補間演算して求める。この補間演算は式(10)で示す如き重心計算である。
Figure 0003791012
このジャストフォーカス位置Xgを重心計算で求めるのは多少のノイズがあっても合焦点位置の算出結果には影響が少ないこと、最小二乗法と異なり評価値曲線E(X)の形を決める必要がないこと(被写体の形状は無数にあるので評価値曲線E(X)は数式でモデリングすることができない。)の理由による。
この式(10)でのXstart及びXendは積分範囲の始端位置及び終端位置を示す。Xはレンズ位置、E(X)はレンズ位置Xにおける評価値である。
この重心計算(式(10)による計算)によれば第21図に示す如く評価値が最大となるレンズ位置Xgと評価値のサンプル点とが重ならなくともこの評価値が最大となるレンズ位置を算出することができる。
この式(10)の重心計算の精度を上げるためには、積分範囲の設定を適正に選ぶ必要がある。
この式(10)の積分範囲Xstart及びXendの設定方法について、第21図に示される評価値曲線の例を参照して説明する。第21図に示される例では、ステップS218において、フォーカスレンズがXK+2の位置まで移動したときに、2フィールド前にレンズ位置XKにおいてサンプリングされた評価値E(XK)がサンプリングされた全評価値の中で最大であると判断される。本実施例においては、この最大となるサンプリング評価値を決定したときのフォーカスレンズ位置XK+2を、式(10)における積分範囲の終端位置Xendとしている。また、第21図に示されるように、評価値曲線における最大サンプリング評価値E(XK)が選ばれたレンズ位置XKに対して、積分終端位置XK+2と反対側の位置であって、この積分終端位置XK+2でサンプリングされた評価値E(XK+2)と同じ大きさの評価値に対応するフォーカスレンズ位置をX′とする。本実施例においては、このフォーカスレンズ位置X′を式(10)における積分範囲の始端位置Xstartとしている。つまり、式(10)における積分範囲は、レンズ位置X′からレンズ位置XK+2である。
しかし、サンプリングされた評価値は、X軸方向(レンズの移動方向)に連続的な値ではなく、1フィールドごとに得られる離散的な値であるので、式(10)に示す如く連続積分はできない。そこで、各サンプル点の間を補間計算する。
本例では式(11)に示すように離散的計算を行なって、精度が高い補間計算を行う。
Figure 0003791012
この積分始端位置Xstartとして求められたレンズ位置X′が、サンプリングされたレンズ位置(X0〜XK-1)の何れかと一致している場合には、この式(11)における積分始端位置としてこの一致しているレンズ位置を使用する。一方、この積分始端位置Xstartとして求めされたレンズ位置X′が、サンプリングされたレンズ位置と一致していない場合には、評価値がE(XK+2)よりも小さく且つレンズ位置X′に最も近いレンズ位置を、RAM66に記憶されたサンプリングレンズ位置(X0〜XK-1)の中から選択する。第21図に示される例では、評価値がE(XK+2)よりも小さく且つレンズ位置X′に最も近いサンプリングされたレンズ位置XK-3が積分始端位置Xstartとして選択される。よって、式(11)における積分範囲は、レンズ位置XK-3からレンズ位置XK+2ということになる。
なお、積分始端位置Xstartは、レンズ位置X′に近い位置が得られれば良く、本実施例に限定されない。
この場合、積分範囲としては評価値最大位置Xgに対してアンバランスとなるが、以下の理由により実際にはそれほど影響がない。
▲1▼ 評価値のピーク(最大)前後でフォーカスレンズの移動速度が大きい場合にはこの評価値E(XK-3)は通常評価値のピークと比べて十分小さく、積分計算への寄与が小さいので、ジャストフォーカス位置Xgの計算精度にはあまり影響しない。
▲2▼ 評価値のピーク(最大)前後でフォーカスレンズの移動速度が小さい場合には、この積分計算への寄与が大きくなるが、評価値(データ)と評価値(データ)との間隔が狭くなることによりジャストフォーカス位置Xgの計算精度が上がるので、結果として精度低下は相殺される。
次にこの式(11)で示される補間計算に使用される評価値について説明する。この補間計算に使用される評価値は、水平方向評価値生成回路62及び垂直方向評価値生成回路63において生成された24個の評価値E1〜E24の中から選択された評価値である。具体的には、総合評価値と同じように増加及び減少する評価値曲線を有する評価値であって、その評価値の中で最も重みデータWiが最も大きいものが選択される。
これを第20図及び第21図に示される例で説明する。レンズ位置がXK-3,XK-2,XK-1及びXKのときはステップS216の判断に基づいて、総合評価値はアップしており、レンズ位置がXK+1及びXK+2のときは、ステップS216の判断に基づいて、総合評価値はダウンしている。この総合評価値と同じようにレンズ位置がXK-3,XK-2,XK-1及びXKのときにアップし、レンズ位置がXK+1及びXK+2のときにダウンしている評価値は第20図の例ではE1,E2,E14,E16である。これらの選択された評価値E1,E2,E14,E16に対してそれぞれ設定された重みデータW1,W2,W14,W16の値は、第7図に示される評価値Eと重みデータWiとの関係からわかるように、20,15,5,3である。よって、重みデータWiが最も大きい評価値はE1であるので、E1(XK-3),E1(XK-2),E1(XK-1),E1(XK),E1(XK+1),E1(XK+2)を使用して、この式(11)で示される重心計算を行ない、評価値が最大となるレンズ位置Xgを高い精度で得る。この補間的な重心計算を行うことにより第21図に示すようにサンプル点がレンズ位置Xgと重ならなくとも、このXgを高い精度で算出できる。
尚、この評価値が最大となるレンズ位置Xgは上述積分範囲を積分して得られる面積をほぼ2等分する位置と近似しているので、この2等分する位置をこのレンズ位置Xgとしても良いし、また、この評価値の最大となるレンズ位置Xgはこの積分範囲のほぼ中点と近似しているので、この中点位置をこのレンズ位置Xgとしても良い。
また、上述した実施例でみ、評価値生成回路から選ばれた24個の評価値の中から選択した1つの評価値のみを用いて、式(11)に基づく演算を行ったが、24個の評価値から選択した複数個の評価値を重みデータによって重み付け加算し、この重み付け加算したデータを式(11)に使用する評価値としても良い。
また、最大評価値Eg(XK)が定義されるとそれに対応する下限評価値は、Eg(XK+1)と定義される。最大評価値Eg(XK)は、レンズをXKに固定することによってフォーカスが合った後も、1フィールド毎に更新されるが、下限評価値は、Eg(XK+1)は固定である。
ステップS222では、マイクロコンピュータ64は、この位置Xgにフォーカスレンズを移動するようにCPU4に対して制御信号を送出する。
ステップS223では、CPU4に被写体の追従指令があったか否かを判断する。この被写体の追従指令とは、被写体の動きに追従するように、ビデオカメラのチルト/パン動作を制御すると共に、ビデオカメラのオートフォーカスの評価値検出ウインドウの位置を可変させるための指令である。例えば、この追従指令は、カメラマンが操作部5に設けられた追従指令ボタンを押すことによってCPU4に供給される。操作部5から追従指令が供給されたのであれば、ステップS300に進み、追従指令がないのであれば、ステップS224に進む。
ステップS224では、オートフォーカスの停止命令があったか否かの判断を行う。もし、カメラマンの操作によって、オートフォーカスモードが解除されたのであれば、ステップS225に進んで、マニュアルフォーカスモードに移行する。
ステップS224において、オートフォーカスモードの停止命令がないのであれば、ステップS226に進み、最大評価値Eg(XK)と下限評価値Eg(XK+1)の比較が行われる。もし、最大評価値Eg(XK)の値が、被写体の変化等によって減少して下限評価値Eg(XK+1)以下になった場合は、ステップS227に進んで、オートフォーカス動作を再起動する。オートフォーカス動作が再起動される場合には、再びステップS100に戻る。
次に、第16図に示されるステップS300からのフローを参照して、設定された被写体の認識動作に関して説明する。このステップS300からのフローは、CPU4が行う処理動作を示している。また、このフローの説明をより具体的に理解するために、同時に、第22図に示される一例も参照する。
第22図は、丸形状の物体Aと四角形状の物体Bが撮像されている状態を示している。この例においては、物体Aの色と物体Bの色が、目的物体として設定された色と一致しているとする。尚、第22図に示されるように、ラスタスキャン開始点(撮像画面における左上)を原点として、水平走査方向をX軸方向、垂直走査方向をY軸方向と定義する。従って、撮像画面において、ラスタスキャン開始点の座標は(0,0)となり、ラスタスキャン終了点の座標は(768,240)となり、撮像画面の中央は(384,120)となる。
ステップS223において、CPU4は、被写体の自動追従指令を操作部5から受け取ると、第16図で示されるステップS300に移行する。
ステップS300では、カメラマンが操作部5を操作して目的物体となる被写体が設定されたか否かを判断する。ここで、目的物体となる被写体の設定方法に関して説明する。カメラマンは、まず、目的物体となる所望の被写体を撮像画面の中央に位置するように撮影する。次に、目的物体が撮像画面の中央に位置した状態で、操作部5に設けられた目的物体確定ボタンをカメラマンが押すと、CPU4は、撮像画面中央に位置している被写体をカメラマンの所望する目的物体と認識して、この物体の色情報をRAM4aに取り込む。目的物体の設定は、このような方法に限らずに、予め設定されている色(例えば肌色等)を有している物体を目的物体とするように設定しても良い。ステップS300において、目的物体として設定された被写体の色情報がRAM4aに記憶されると、ステップS301に移行する。
ステップS301では、CPU4は、既に説明した4つの被写体モード(モード0、1、2、3)の中から、ステップS300において設定された目的物体に最も適した被写体モードを選択する。CPU4は、選択した被写体モードに応じて、スイッチ回路72a、72b、72c及び72dのスイッチングを制御する。
このステップS301において、CPU4によって、被写体モードが選択され、スイッチ回路72a、72b、72c及び72dのスイッチングが制御されると、エリア検索回路38は、目的物体として設定された被写体の色成分と一致する画素データが存在するエリアを検索する。この検索処理は、CPU4が行う処理ではなくて、ハードウエア回路として設けられたエリア検索回路38が行う処理であることが本例において重要な点である。つまり、このようにエリア検出回路38をハードウエア回路で構成することによって、エンコーダ37からの全画素データに対してリアルタイムで条件判断処理を行うことができるということである。エリア検索回路38の動作に関しては、第9図を参照しながら既に説明したので、特に説明はしない。
ステップS302では、CPU4は、エリア検索回路38から供給されたチップ回路の番号に基づいて、どのエリアに目的物体と同じ色の画素データが存在するのかを認識する。これによって、CPU4は、目的物体として設定された被写体と同じ色が存在するエリアのみを選択することができる。第22図に示される例においては、目的物体と同じ色が存在するエリアとして、A068、A069、A084、A085、A086、A087、A102及びA103の8つのエリアが選択されることになる。
ステップS303では、CPU4は、ステップS302において選択されたエリア内に存在する全画素データを、ラスタスキャン順にフレームメモリ39から読み出す。なお、ステップS302において選択されていないエリアに存在する画素データは、一切、読みだされない。このフレームメモリ39からは、同じアドレスを供給することによって、Yデータ、(R−Y)データ及び(B−Y)データから成る画素データが、画素毎に読み出される。第22図に示される例においては、CPU4は、8つのエリアA068、A069、A084、A085、A086、A087、A102及びA103に存在する画素データのみをフレームメモリ39から読み出す。このとき、選択された8つのエリア以外のエリアに存在する画素データは、一切、フレームメモリ39から読み出されない。このように、CPU4は、エリア検索回路38によって検索された結果に基づいて、フレームメモリ39から画素データを読み出すエリアを決定しているので、CPU4がフレームメモリ39から受け取る画素データ数を減少させることができる。従って、CPU4は、リアルタイムで、フレームメモリ39から供給された全画素データに対して処理を行うことができる。
ステップS304では、まず、CPU4は、読み出されたYデータ、(R−Y)データ及び(B−Y)データから成る画素データに基づいて、被写体モードとしてモード0が選択されている時には、式(700)に基づく条件判断を行う。被写体モードとしてモード1が選択されている時には、式(701)に基づく条件判断を行う。被写体モードとしてモード2が選択されている時には、式(702)に基づく条件判断を行う。被写体モードとしてモード3が選択されている時には、式(703)に基づく条件判断を行う。尚、CPU4で上記の式(700)、式(701)、式(702)又は式(703)に基づく条件判断に関する演算が行われる場合には、式(700)、式(701)、式(702)及び式(703)において定義されている輝度信号Y、色差信号|R−Y|及び色差信号|B−Y|は、フレームメモリ39から読み出される信号である。また、これらの式(700)、式(701)、式(702)又は式(703)に基づく条件判断を行うためのプログラムは、CPU4の中のRAM4aに予め記憶されている。
ここで、例えば、フレームメモリ39に記憶された全画素データに対して上述の条件判断処理を行おうとすると、処理回数が多く成り過ぎて、リアルタイムでこの条件判断処理を行うことができない。しかし、本実施例においては、選択されたエリアに存在する画素データのみに上述の条件判断が行われるので、CPU4は、リアルタイムでこの条件判断処理を行うことができる。
従って、CPU4は、選択されたエリア内の各画素データ毎に式(700)、(701)、(702)又は(703)で定義される条件に一致しているかの判断結果を得る。ここで、この画素データが、この式(700)、(701)、(702)又は(703)で定義される条件に一致しているということは、この画素データの色が、目的物体として設定された色に一致していることを意味している。
さらに、ステップS304では、CPU4は、この条件判断処理と平行して後述する物体情報テーブルを作成し、RAM4aの所定領域に記憶する。この物体情報テーブルには、目的物体として設定された被写体の色が、何ライン目にどの画素位置からどの画素位置までに存在するのかを示す座標情報と、その目的物体の色と一致する色を有した被写体が何番目の物体であるのかを示す物体識別番号とが記録される。
次に、この物体情報テーブルに関して、さらに第23図を参照して説明する。第23図は、第22図に示される例から得られる物体情報テーブルが示されている。ライン位置とは、目的物体と同じ色を有する物体が存在するラインが何番目のラインであるかをY座標で示し、スタート画素位置とは、このライン位置で示されるラインにおいて、目的物体と同じ色を有する物体の最初の画素データの座標位置をX座標で示し、エンド画素位置とは、このライン位置で示されるラインにおいて、目的物体と同じ色を有する物体の最後の画素データの座標位置をX座標で示し、物体識別番号とは、目的物体と同じ色を有する物体として認識された物体が何番目の物体であるかを示す番号である。
例えば、第22図に示される物体Aは、161ラインの245画素から246画素の間に存在するので、物体情報テーブルには、第23図に示されるように、ライン番号として「161」が記憶され、スタート画素位置として「245」が記憶され、エンド画素位置として「246」が記憶され、さらに、物体Aを示す物体識別番号として「1」が記憶される。以下の、162ラインから190ラインに関しても同様であるので、説明は省略する。次に、第23図に示されるように、191ラインにおいては、物体Aは221画素から258画素の間に存在し、物体Bは318画素から319画素の間に存在するので、物体情報テーブルには、第23図に示されるように、物体Aを示す情報として、ライン番号として「191」が記憶され、スタート画素位置として「221」が記憶され、エンド画素位置として「258」が記憶され、物体識別番号として「1」が記憶される。さらに、被写体情報テーブルには、物体Bを示す情報として、ライン番号として「191」が記憶され、スタート画素位置として「318」が記憶され、エンド画素位置として「319」が記憶され、物体識別番号として「2」が記憶される。
ステップS305では、目的物体と同じ色を有する物体が含まれる最小のウインドウを設定する。第22図に示される例では、物体Aが含まれる最小のウインドウとして、216≦X≦273,161≦Y≦202の範囲で定義されるウインドウWAが設定され、物体Bが含まれる最小のウインドウとして、309≦X≦358,191≦Y≦231の範囲で定義されるウインドウWBが設定される。
ステップS306では、mを物体情報テーブルに記憶された最小の物体識別番号に初期設定する。但し、mは単なる変数であって、物体情報テーブルに記憶された最小の物体識別番号から最大の物体識別番号の値を有する。
ステップS307では、後述する目的物体履歴テーブルに記憶されたウインドウ中心ベクトルに基づいて、ステップS305において設定されたm番目のウインドウの中に、後述する予想位置座標が存在するか否かを判断する。これは、物体Aと物体Bのどちらの物体が、目的物体であるのかを判断するためである。
まず、第24図を参照して、目的物体履歴テーブルに関して説明する。第24図は、目的物体履歴テーブルの一例を示している図である。この目的物体履歴テーブルには、各フィールド毎における目的物体と判断された物体の座標位置に関する情報が記憶されている。フィールド番号とは、30フィールド毎にリセットされる仮の番号であって、フィールド毎に順に付与されていくシーケンシャルな番号である。ウインドウX座標とは、ステップS305において設定されたウインドウのX軸方向の範囲をX座標値で示したデータである。ウインドウY座標とは、ステップS305において設定されたウインドウのY軸方向の範囲をY座標値で示したデータである。ウインドウ中心ベクトル(ΔX ΔY)とは、ステップS305において設定されたウインドウの中心位置が、撮像画面の中央位置(X=384,Y=120)に対して、どの方向に、且つ、どれくらい距離ずれているかを表すベクトルである。
例えば、第24図に示される目的物体履歴テーブルの例では、フィールド番号17で示される時点においては、目的物体に対して設定されたウインドウの範囲が、312≦X≦362、かつ、186≦Y≦228で規定されていることを示している。また、そのウインドウの中心位置が、撮像画面中央位置に対して、ウインドウ中心ベクトル(−47 +87)で示される方向及び距離にずれていることを示している。フィールド番号18及びフィールド番号19で示される時点において作成されたウインドウX座標、ウインドウY座標及びウインドウ中心ベクトルに関しても同様であるので、説明は省略する。
ここで、フィールド番号17、フィールド番号18及びフィールド番号19の夫々の時点において夫々記憶されたウインドウ中心ベクトルのデータを取り出してみると、この3つのウインドウ中心ベクトルを示すデータの値に大きな変化はない。これは、目的物体が移動していないのではなくて、このウインドウ中心ベクトルは、前フィールドからの目的物体の移動ベクトルを示すからである。本実施例では、CPU4が、1フィールド毎に、移動した目的物体を示すウインドウの中心位置が、撮像画面の中央となるようにパン/チルト駆動機構16を制御している。従って、ウインドウ中心ベクトルを、撮像画面の中央からのずれの方向及び距離を示すベクトルとすることによって、このウンドウ中心ベクトルが、前フィールドからの目的物体の移動ベクトルを表すことになる。
上述した目的物体履歴テーブルを参照しながら、再度、ステップS307を説明する。ステップS307では、まず、物体Aに対応する1番目のウインドウWA(216≦X≦273,161≦Y≦202)の中に、予想位置座標が存在するかを判断する。この予想位置座標とは、上述の目的物体履歴テーブルに記憶された1フィールド前のウインドウ中心ベクトルから得られる位置座標である。例えば、フィールド番号19の時点において設定されたウインドウ中心ベクトル(ΔX19 ΔY19)は、ベクトル(−49 +89)であるので、フィールド番号20の時点において得られるウインドウ中心ベクトルに関しても、ベクトル(−49 +89)の近傍のベクトルとなると予想することができる。従って、目的物体履歴テーブルに記憶されるウインドウ中心ベクトルは、撮像中心座標(384,120)からの座標のずれ量および方向を表しているので、フィールド番号20の時点において目的物体に対して設定されるウインドウの中心位置座標は(335,209)と考えることができる。このウインドウの中心位置座標が予想位置座標である。
具体的には、ステップS307では、物体Aが含まれる最小のウインドウとして、216≦X≦273かつ161≦Y≦202の範囲で定義されたウインドウWAの中に、目的物体履歴テーブルから得られた予想位置座標(335,209)が存在しない。従って、CPU4は、物体Aは設定された目的物体ではないと判断して、ステップS308に進む。
ステップS308では、mをインクリメントして、再びステップS307に戻る。
再びステップS307に戻ると、今度は、物体Bが含まれる最小のウインドウとして、309≦X≦358かつ191≦Y≦231の範囲で定義されたウインドウWBの中に、予想位置座標(335,209)が存在するか否かを判断する。このステップにおいて、ウインドウWBの中に、予想位置座標(335,209)が存在するので、CPU4は、物体Bが設定された目的物体であると判断し、ステップS309に進む。
ステップS309では、CPU4は、309≦X≦358かつ191≦Y≦231の範囲で定義されるウインドウWBの座標を、RAM4aの目的物体履歴テーブルにおけるフィールド番号20で示されるエリアに、ウインドウX座標及びウインドウY座標として記憶する。また、CPU4は、ウインドウWBの座標から、ウインドウWBの中心座標を演算し、このウインドウの中心座標をウインドウ中心ベクトルとしてRAM4aに記憶する。上述した例では、ウインドウ中心ベクトルとして、ベクトル(−51 +91)が記憶される。
ステップS310では、CPU4は、ステップS309で新たに記憶されたウインドウ中心ベクトルに基づいて、ウインドウW2の中心が、撮像画面の中央に一致するように、チルト/パン駆動機構16を制御する。具体的には、CPU4は、ウインドウ中心ベクトルに基づいて、制御信号をモータ駆動回路16bに出力する。
ステップS311では、CPU4は、ウインドウ中心ベクトルに基づいて、フォーカス制御回路34の評価値生成回路62に対して、オフセット値を供給する。このオフセット値とは、第3図及び第4図に示されるウインドウパルス発生回路625、635に設けられた各カウンタに供給されるオフセット値である。ウインドウパルス発生回路625、635の各カウンタにオフセット値が供給されていないときには、第6A図及び第6B図に示されるように、各ウインドウW1〜W11の中心座標は、撮像画面の中央の座標に一致している。しかし、CPU4からこのオフセット値が、ウインドウパルス発生回路625、635の各カウンタに供給されると、各カウンタのカウント値がこのオフセット値に基づいて変更される。従って、各ウインドウW1〜W11の中心座標が、このオフセット値に基づいて変更されることになる。ステップS311において、フォーカス制御回路34にオフセット値が供給されると、ステップS100にもどる。
本例においては、以下のような効果を有している。まず、複数のフィルタ係数と複数のサイズのウインドウを組み合わせることによって、複数の評価値を得ることができるので、色々な被写体に対応することができる。
また、評価値生成回路に対して、重みデータが付与されており、複数の評価値とこの評価値に夫々対応する重みデータにもづいて、総合評価値を得るようにしているので、最終的に得られる評価値の精度が向上する。評価値の精度が向上すると、フォーカス点近傍において、評価値曲線がきれいな放物線を描くので、評価値の最大点の決定が高速に行える。したがって、オートフォーカスの動作自体が高速になる。
また、複数の評価値の中から、総合評価値を演算する際に不適切と判断される評価値を選択して、使用しないようにしているので、一層、評価値の精度が向上する。例えば、小さいウインドウで適切な評価値が得られない場合は、その小さいウインドウよりも大きなウインドウに対応する評価値を使用してフォーカスを合わせるようにしているので、少なくとも、何等かの被写体にフォーカスを合わせることができ、長い時間、オートフォーカス動作が動き続けることを防止できる。
さらに、フォーカスを合わせるために移動方向を決定する際には、複数の評価値の変化に対して、重みデータを用いた多数決方式を採用しているので、少ないサンプル点及びレンズの焦点深度内の微小移動で、フォーカス方向の正確に判定できる。
評価値の極大点が、最大点であるか否かを判定する時に、極大点から焦点深度の所定倍の距離までレンズを移動させるようにしているので、例え、評価値の山が平であったとしても、レンズが一定の距離動いた時点で最大であるか否かを判断できる。よって、高速にフォーカス点を決定できるという効果を有する。例えば、極大点が最大点であるかを判断するためにフォーカスが大きくずれて、撮像信号が大きくぼやけてしまって違和感のある映像が出力されることを防止することができる。
フォーカス点における最大評価値を求める際に、総合評価値のアップダウン状態とRAM66に記憶されたアップ/ダウン情報が一致する評価値であって、且つ、重みデータの最も高い評価値を、最大評価値として選択しているので、最大評価値の値が正確に求められるという効果を有する。
また、本例によれば選択された複数の評価値とこの選択された複数の評価値に対応するレンズ位置に基づいてジャストフォーカス位置Xgを演算例えば重心計算により求めているので、この評価値にノイズが乗っていたり、低輝度の場合でこの評価値にノイズが定常的に乗っていても、このジャストフォーカス位置Xgを計算により求めることができ高精度にフォーカス制御ができる。
またジャストフォーカス位置Xgを演算例えば重心計算により求めているので、フォーカスレンズがジャストフォーカス位置を1回通過するだけで、このジャストフォーカス位置の演算ができ、ジャストフォーカス位置をそれだけ高速で決めることができる。
エリア検索回路38によって、目的物体と同じ色の画素データが存在するエリアを選択し、その選択されたエリアに存在する画素データのみに対して条件判断処理を行っているので、CPU4に対して処理負担をかけることなく、リアルタイムで、目的物体の位置を把握できる。
また、設定された目的物体の色に応じて、被写体モードを設定し、設定された被写体モードに応じて、エリア検出回路38による条件判断演算と、CPU4による条件判断演算を可変しているので、設定された被写体がどのような色を有していようと、的確に被写体を認識することができる。
また、エリア検索回路38において行われる条件判断処理は、全てハードウエア回路によって条件判断されるので、エンコーダ37から供給される全ての画素データに対して、リアルタイムで条件判断が行える。
また、目的物体と同じ色を有した物体が複数存在した場合においても、各物体に関する位置情報を有した物体情報テーブルと、目的物体の移動履歴に関する情報を有した目的物体履歴テーブルとを作成するので、的確に目的物体を認識できる。
また、目的物体の移動した位置を演算し、その位置に基づくオフセット値をウインドウパルス発生回路に供給しているので、各ウインドウW1〜W11の中心座標を目的物体に対応するように変更される。よって、目的物体が移動したとしても、移動した目的物体に対して各ウインドウを的確に設定できるので、移動した目的物体に対しても正確な評価値を得ることができる。よって、精度の高いオートフォーカス制御を行える。

Claims (2)

  1. ビデオカメラのフォーカスを制御するフォーカス制御装置において、
    フォーカスレンズの移動に伴って、撮像手段から出力された撮像信号の高周波成分を抽出することによって、被写体のフォーカス状態を表す評価値を生成する評価値生成手段と、
    上記評価値生成手段によって生成された評価値が最大となったフォーカスレンズの位置を検出し、上記検出されたフォーカスレンズ位置の近傍のレンズ位置において生成された複数の評価値に基づいて、ジャストォーカス位置を求める制御手段と、
    上記評価値生成手段によって生成された評価値を、連続的に移動するフォーカスレンズのレンズ位置と対応付けて記憶する記憶手段とを備え、
    上記ジャストフォーカス位置は、
    Figure 0003791012
    に基づいて求められることを特徴とするフォーカス制御装置。
    但し、Xg:ジャストフォーカス位置
    X :評価値が最大となったフォーカスレンズの位置の近傍のレンズ位置
    E(X):レンズ位置Xにおける評価値
  2. ビデオカメラのフォーカスを制御するフォーカス制御装置において、
    フォーカスレンズの移動に伴って、撮像手段から出力された撮像信号の高周波成分を抽出することによって、被写体のフォーカス状態を表す評価値を生成する評価値生成手段と、
    上記評価値生成手段によって生成された評価値が最大となったフォーカスレンズの位置を検出し、上記検出されたフォーカスレンズ位置の近傍のレンズ位置において生成された複数の評価値に基づいて、ジャストォーカス位置を求める制御手段と、
    上記評価値生成手段によって生成された評価値を、連続的に移動するフォーカスレンズのレンズ位置と対応付けて記憶する記憶手段とを備え、
    上記制御手段は、
    上記フォーカスレンズが、上記評価値生成手段によって生成された評価値が極大となる第1のレンズ位置から所定フィールドの間に第2のレンズ位置までに移動したときに、上記評価値生成手段によって生成される評価値が連続的に減少する場合には、上記第1のレンズ位置において生成された評価値を、上記評価値生成手段によって生成された評価値の中で最大の評価値であると判断すると共に、上記フォーカスレンズが、上記第2のレンズ位置において生成された第2の評価値と略同じレベルを有する評価値を生成したときのレンズ位置であって上記第2のレンズ位置に対して上記第1のレンズ位置が介在される位置関係にある第3のレンズ位置から、上記第2のレンズ位置までに移動する間に生成された評価値を選択し、
    上記ジャストフォーカス位置は、
    Figure 0003791012
    に基づいて求められることを特徴とするフォーカス制御装置。
    但し、Xg:ジャストフォーカス位置
    2:第2のレンズ位置
    3:第3のレンズ位置
    ΔX:1フィールド間にレンズが移動する距離
    評価値が最大となったフォーカスレンズの位置の近傍のレンズ位置
    E(X):レンズ位置Xにおける評価値
JP52508297A 1996-01-11 1997-01-10 フォーカス制御装置 Expired - Fee Related JP3791012B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP331196 1996-01-11
PCT/JP1997/000034 WO1997025812A1 (fr) 1996-01-11 1997-01-10 Dispositif et procede de reglage de la nettete

Publications (1)

Publication Number Publication Date
JP3791012B2 true JP3791012B2 (ja) 2006-06-28

Family

ID=11553822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP52508297A Expired - Fee Related JP3791012B2 (ja) 1996-01-11 1997-01-10 フォーカス制御装置

Country Status (3)

Country Link
US (1) US6362852B2 (ja)
JP (1) JP3791012B2 (ja)
WO (1) WO1997025812A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11271600A (ja) * 1998-03-25 1999-10-08 Minolta Co Ltd 距離検出装置
JP2001208959A (ja) * 2000-01-24 2001-08-03 Fuji Photo Film Co Ltd 撮像装置、自動合焦方法及び合焦の手順を記録した記録媒体
JP2001281529A (ja) * 2000-03-29 2001-10-10 Minolta Co Ltd デジタルカメラ
JP2002296493A (ja) * 2001-03-30 2002-10-09 Fuji Photo Optical Co Ltd ピント状態検出装置
JP3921069B2 (ja) * 2001-10-15 2007-05-30 株式会社リコー 撮像装置
JP2003199019A (ja) * 2001-12-26 2003-07-11 Sony Corp 撮像装置および方法、記録媒体、並びにプログラム
JP2005352459A (ja) * 2004-05-13 2005-12-22 Matsushita Electric Ind Co Ltd 焦点調節装置、焦点調節方法、およびデジタルカメラ
US7813579B2 (en) * 2004-05-24 2010-10-12 Hamamatsu Photonics K.K. Microscope system
US20050275745A1 (en) * 2004-06-09 2005-12-15 Premier Image Technology Corporation Quick focusing method for a digital camera
US8035721B2 (en) * 2004-08-05 2011-10-11 Panasonic Corporation Imaging apparatus
JP4371074B2 (ja) * 2005-04-15 2009-11-25 ソニー株式会社 制御装置および方法、プログラム、並びにカメラ
JP4419084B2 (ja) * 2005-04-15 2010-02-24 ソニー株式会社 制御装置および方法、プログラム、並びにカメラ
JP4419085B2 (ja) 2005-04-15 2010-02-24 ソニー株式会社 制御装置および方法、並びにプログラム
JP2007102061A (ja) * 2005-10-07 2007-04-19 Olympus Corp 画像撮影装置
JP5380784B2 (ja) * 2007-04-12 2014-01-08 ソニー株式会社 オートフォーカス装置、撮像装置及びオートフォーカス方法
US20080291314A1 (en) * 2007-05-25 2008-11-27 Motorola, Inc. Imaging device with auto-focus
JP4959535B2 (ja) 2007-12-13 2012-06-27 株式会社日立製作所 撮像装置
JP5171433B2 (ja) * 2008-01-22 2013-03-27 キヤノン株式会社 撮像装置、およびレンズ装置
US8274596B2 (en) * 2008-04-30 2012-09-25 Motorola Mobility Llc Method and apparatus for motion detection in auto-focus applications
KR101320350B1 (ko) * 2009-12-14 2013-10-23 한국전자통신연구원 보안관제서버 및 보안관제서버의 영상데이터 관리 방법
TWI524107B (zh) * 2012-06-05 2016-03-01 鴻海精密工業股份有限公司 自動對焦方法
WO2014010303A1 (ja) * 2012-07-12 2014-01-16 ソニー株式会社 像振れ補正装置と像振れ補正方法および撮像装置
US9554042B2 (en) 2012-09-24 2017-01-24 Google Technology Holdings LLC Preventing motion artifacts by intelligently disabling video stabilization
US8941743B2 (en) 2012-09-24 2015-01-27 Google Technology Holdings LLC Preventing motion artifacts by intelligently disabling video stabilization
WO2023136736A1 (en) * 2022-01-12 2023-07-20 Mosst Merrick Anthony Preset-based automated image capture system

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2554051B2 (ja) * 1986-03-04 1996-11-13 キヤノン株式会社 オ−トフォ−カス装置
KR940011885B1 (ko) * 1987-02-18 1994-12-27 상요덴기 가부시기가이샤 영상 신호에 기인해서 초점의 자동 정합을 행하는 오토포커스 회로
US4922346A (en) * 1987-06-30 1990-05-01 Sanyo Electric Co., Ltd. Automatic focusing apparatus having a variable focusing speed and particularly suited for use with interlaced scanning
US5619264A (en) * 1988-02-09 1997-04-08 Canon Kabushiki Kaisha Automatic focusing device
US4928170A (en) * 1988-06-21 1990-05-22 Visualtek, Inc. Automatic focus control for an image magnification system
US5083150A (en) * 1989-03-03 1992-01-21 Olympus Optical Co., Ltd. Automatic focusing apparatus
US5249058A (en) * 1989-08-08 1993-09-28 Sanyo Electric Co., Ltd. Apparatus for automatically focusing a camera lens
JP2786894B2 (ja) * 1989-08-09 1998-08-13 三洋電機株式会社 オートフォーカスカメラ
DE69018231T2 (de) 1989-08-08 1995-11-09 Sanyo Electric Co Kamera mit selbsttätiger scharfeinstellung.
US5629735A (en) * 1989-08-20 1997-05-13 Canon Kabushiki Kaisha Image sensing device having a selectable detecting area
EP0417975B1 (en) * 1989-09-10 1997-04-02 Canon Kabushiki Kaisha Automatic focusing system
JP2974339B2 (ja) * 1989-09-20 1999-11-10 キヤノン株式会社 自動焦点調節装置
DE69127112T2 (de) * 1990-02-28 1998-03-05 Sanyo Electric Co Automatisches Fokussierungsgerät zur automatischen Fokusanpassung in Abhängigkeit von Videosignalen
US5235375A (en) * 1990-04-12 1993-08-10 Olympus Optical Co., Ltd. Focusing position detecting and automatic focusing apparatus with optimal focusing position calculation method
JP3103587B2 (ja) * 1990-04-25 2000-10-30 オリンパス光学工業株式会社 自動合焦装置
KR950007867B1 (ko) * 1990-08-31 1995-07-20 니뽕 빅터 가부시끼가이샤 자동 촛점 촬상 장치
JPH04330411A (ja) * 1991-05-02 1992-11-18 Olympus Optical Co Ltd 自動合焦装置
JP3162100B2 (ja) * 1991-05-08 2001-04-25 オリンパス光学工業株式会社 合焦点検出装置
US5475429A (en) * 1991-07-25 1995-12-12 Olympus Optical Co., Ltd. In-focus sensing device for sensing an in-focus condition using a ratio of frequency components at different positions
JP3209761B2 (ja) * 1991-09-24 2001-09-17 キヤノン株式会社 焦点調節装置
US5345264A (en) * 1992-02-27 1994-09-06 Sanyo Electric Co., Ltd. Video signal processing circuit for a video camera using a luminance signal
JP2996806B2 (ja) * 1992-06-11 2000-01-11 キヤノン株式会社 カメラ、自動焦点調節装置及び焦点調節方法
US5604537A (en) * 1992-09-10 1997-02-18 Canon Kabushiki Kaisha Imaging apparatus having an automatic focusing means
US5432552A (en) * 1992-11-04 1995-07-11 Sanyo Electric Co., Ltd. Automatic focusing apparatus including improved digital high-pass filter
US6236431B1 (en) * 1993-05-27 2001-05-22 Canon Kabushiki Kaisha Video camera apparatus with distance measurement area adjusted based on electronic magnification
US6222588B1 (en) * 1993-05-28 2001-04-24 Canon Kabushiki Kaisha Automatic focus adjusting device with driving direction control
KR100275185B1 (ko) * 1993-06-17 2000-12-15 다카노 야스아키 영상 신호에 응답하여 촛점의 자동 정합을 행하는 오토 포커스 장치
JPH09243906A (ja) * 1996-03-05 1997-09-19 Eastman Kodak Japan Kk 自動焦点合わせ装置および自動焦点合わせ方法

Also Published As

Publication number Publication date
US6362852B2 (en) 2002-03-26
US20010050718A1 (en) 2001-12-13
WO1997025812A1 (fr) 1997-07-17

Similar Documents

Publication Publication Date Title
JP3791012B2 (ja) フォーカス制御装置
US7456898B2 (en) Video camera apparatus including automatic focusing
US7548269B2 (en) System for autofocusing a moving object
JP3752510B2 (ja) 画像の自動被写体検出方法
JP2006258944A (ja) オートフォーカスシステム
JP4944393B2 (ja) 撮像装置
KR20080092875A (ko) 자동 포커스 장치, 촬상 장치 및 자동 포커스 방법
US7391461B2 (en) Apparatus, method and control computer program for imaging a plurality of objects at different distances
EP1289283A2 (en) Autofocus device, imaging device and camera system
JP2008145760A (ja) オートフォーカスシステム
JP2000338387A (ja) オートフォーカス方法、装置及び記憶媒体
JP3747474B2 (ja) フォーカス制御方法及びビデオカメラ装置
KR20100079832A (ko) 지능형 셀프 타이머 모드를 지원하는 디지털 카메라 및 그 제어방법
US6275262B1 (en) Focus control method and video camera apparatus
US6222587B1 (en) Focus control method and video camera
JP3949000B2 (ja) オートフォーカスカメラ
JP4438428B2 (ja) ビデオカメラ、合焦点位置探索方法、カメラ本体部及び交換式レンズ部
JP2004093776A (ja) カメラ
JPH0933792A (ja) レンズ駆動装置及び撮像装置
JP3774962B2 (ja) オートフォーカス装置
JP2002277730A (ja) 電子カメラの自動焦点制御方法、装置及びプログラム
WO1997000575A1 (fr) Dispositif de reconnaissance d'objets et dispositif de prise d'images
JP2005277765A (ja) ビデオカメラ
JPH0622195A (ja) カメラ装置
JP2000165734A (ja) 自動焦点制御装置および自動焦点制御方法

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060327

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090414

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100414

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100414

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110414

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120414

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130414

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees