JP2004117492A - Autofocus system - Google Patents
Autofocus system Download PDFInfo
- Publication number
- JP2004117492A JP2004117492A JP2002277041A JP2002277041A JP2004117492A JP 2004117492 A JP2004117492 A JP 2004117492A JP 2002277041 A JP2002277041 A JP 2002277041A JP 2002277041 A JP2002277041 A JP 2002277041A JP 2004117492 A JP2004117492 A JP 2004117492A
- Authority
- JP
- Japan
- Prior art keywords
- focus
- video signal
- processing
- signal
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明はオートフォーカスシステムに係り、特に光路長が異なる位置に撮像面が配置された複数の撮像素子を用いてコントラスト方式のオートフォーカスを行うオートフォーカスシステムに関する。
【0002】
【従来の技術】
従来、光路長の異なる位置に撮像面を有する複数の撮像素子を用いて撮影レンズのピント状態(前ピン、後ピン、合焦)を検出する方法が提案されている(例えば、特許文献1、特許文献2、特許文献3、特許文献4参照)。例えば、映像用の画像を撮像する撮像素子(映像用撮像素子)に対して同一撮影範囲の画像を撮像する2つのピント状態検出用撮像素子を、それぞれ映像用撮像素子よりも光路長が長くなる位置と短くなる位置に配置する。そして、これらのピント状態検出用撮像素子によって撮像された画像(映像信号)から高域周波数成分を抽出し、これに基づいて、ピント状態検出用撮像素子の各撮像面に対する合焦の程度(画像のコントラスト)を示す焦点評価値を求め、比較する。これによって、焦点評価値の大小関係から映像用撮像素子の撮像面におけるピント状態の情報(ピント情報)、即ち、前ピン、後ピン、合焦のどの状態にあるかが検出される。このようなピント状態の検出方法を適用することによってオートフォーカスのための合焦検出を行うことができ、また、合焦か否かを判断できるだけでなく前ピンか後ピンかも判断できるため、合焦に対する反応速度も速いという利点がある。
【0003】
【特許文献1】
特願2001−168246
【0004】
【特許文献2】
特願2001−168247
【0005】
【特許文献3】
特願2001−168248
【0006】
【特許文献4】
特願2001−168249
【0007】
【発明が解決しようとする課題】
ところで、上記焦点評価値は、複数のピント状態検出用撮像素子からの映像信号に対してそれぞれ同一の処理を施すことによって求められる。しかしながら、その処理を各映像信号に対応して設けた処理回路で並列で行うようにすると、各撮像素子から同一時刻の画像が得られ、蛍光灯等のフリッカがある場合や、画面上で動く被写体からのピント情報に関しても高い精度で処理できる反面、回路のサイズや消費電力が大きくなる欠点があった。
【0008】
本発明はこのような事情に鑑みてなされたもので、光路長が異なる位置に撮像面を有する複数の撮像素子を用いてコントラスト方式のオートフォーカスを行うオートフォーカスシステムにおいて、各撮像素子の映像信号からピント情報を得るための処理部の小型化及び省電力化を図ると共に、低コスト化を図るオートフォーカスシステムを提供することを目的とする。
【0009】
【課題を解決するための手段】
前記目的を達成するために、請求項1に記載の発明は、撮影レンズに入射した被写体光を光路長の異なる位置に配置された複数の撮像素子により撮像して各撮像素子により得られた映像信号に基づいて前記撮影レンズのフォーカスを制御してピント合わせを自動で行うフォーカス制御手段を備えたオートフォーカスシステムにおいて、前記各撮像素子からの各映像信号に対して施される同一の処理の全て又は一部を各映像信号ごとに時分割で処理する単一の処理部を備えたことを特徴としている。
【0010】
また、請求項2に記載の発明は、請求項1に記載の発明において、前記撮影レンズの画角内においてピント合わせの対象とする範囲を特定する枠をAF枠として、前記処理部は、1つの撮像素子からの映像信号のうち少なくとも前記AF枠内の映像信号に対する処理が終了するごとに、処理する対象の映像信号を他の撮像素子からの映像信号に切り替えることを特徴としている。
【0011】
また、請求項3に記載の発明は、請求項1に記載の発明において、前記撮影レンズの画角内においてピント合わせの対象とする範囲を特定する枠をAF枠として、前記処理部は、1つの撮像素子からの前記AF枠内の映像信号のうち一部の映像信号の処理が終了するごとに、処理する対象の映像信号を他の撮像素子からの映像信号に切り替えることを特徴としている。
【0012】
また、請求項4に記載の発明は、請求項2又は請求項3に記載の発明において、前記各撮像素子からの映像信号を記憶する記憶手段を備え、前記処理部は、各撮像素子から同一時刻に出力された映像信号を前記記憶手段から読み出して処理することを特徴としている。
【0013】
また、請求項5に記載の発明は、請求項3に記載の発明において、処理する対象の映像信号の切替えは、水平同期信号を基準に行うことを特徴としている。
【0014】
また、請求項6に記載の発明は、請求項5に記載の発明において、前記各撮像素子からの映像信号の垂直同期信号が一定時間分ずれるようにしたことを特徴としている。
【0015】
本発明によれば、光路長の異なる位置に配置された複数の撮像素子を用いたオートフォーカスの処理の全て又は一部を単一の処理部で時分割で行うようにしたため、回路規模を小さくすることができ、また、消費電力を低減することができるようになる。
【0016】
【発明の実施の形態】
以下、添付図面に従って本発明に係るオートフォーカスシステムの好ましい実施の形態について詳説する。
【0017】
図1は、本発明が適用されたテレビカメラシステムの構成を示した構成図である。同図に示すテレビカメラシステムは、カメラ本体10と、交換可能な撮影レンズ12等からなり、カメラ本体10には、記録再生用の映像を撮影し、所定形式の映像信号を出力又は記録媒体に記録するための撮像素子(映像用撮像素子)や所要の回路等が内蔵されている。一方、撮影レンズ12は、カメラ本体10の前面側に着脱自在に装着され、同図に示すように撮影レンズ12の光学系には、一般的に知られているように前端側から固定フォーカスレンズF′、移動可能なフォーカスレンズF、変倍系と補正系とからなるズームレンズZ、アイリスI、前側リレーレンズR1と後側リレーレンズR2とからなるリレーレンズ(リレー光学系)等が配置される。尚、図中の各レンズの構成は簡略化しており、複数のレンズから成るレンズ群を1つのレンズで示したものもある。
【0018】
また、同図に示すようにリレー光学系の前側リレーレンズR1と後側リレーレンズR2との間の被写体光の光路上には撮影レンズ12の光軸Oに対して略45度に傾斜し、ピント状態検出用の被写体光を映像用の被写体光から分岐するためのハーフミラー24が配置される。
【0019】
撮影レンズ12の前端側から入射した被写体光のうちハーフミラー24で分岐される光束以外、即ち、ハーフミラー24を透過した映像用の被写体光は、撮影レンズ12の後端側から射出され、カメラ本体10の撮像部20に入射する。撮像部20の構成については省略するが、撮像部20に入射した被写体光は、例えば色分解光学系により、赤色光、緑色光、青色光の3色に分解され、各色ごとの撮像素子(映像用撮像素子)の撮像面に入射する。これによって放映用のカラー映像が撮影される。尚、図中のピント面22は、各映像用撮像素子の撮像面に対して光学的に等価な位置を撮影レンズ12の光軸O上に示したものである。
【0020】
一方、ハーフミラー24で反射した被写体光は、ピント状態検出用の被写体光として光軸Oに対して略垂直な光軸O′に沿ってピント状態検出用の撮像部26に導かれる。ここで、前側リレーレンズR1と後側リレーレンズR2の間では被写体光は略平行光の状態であり、ハーフミラー24で反射した被写体光は、後側リレーレンズR2と同様の性質を有する集光のためのリレーレンズR3を通過してピント状態検出用の撮像部26に入射する。
【0021】
図2は、ピント状態検出用の撮像部26の構成を示した構成図である。同図に示すように撮像部26は、光分割光学系を構成する3つのプリズムP1、P2、P3とピント状態検出用の3つの撮像素子(2次元CCD)A、B、Cから構成される。尚、撮像素子A、B、Cをカメラ本体10に搭載された映像用撮像素子と特に区別していう場合にはピント状態検出用撮像素子A、B、Cというものとする。
【0022】
上述のようにハーフミラー24で反射し、光軸O′に沿って進行した被写体光は、まず、第1プリズムP1に入射し、第1プリズムP1のハーフミラー面40で反射光と透過光に分割される。このうち反射光は、撮像素子Cの撮像面に入射する。一方、透過光は、第2プリズムP2に入射し、第2プリズムP2のハーフミラー面42で更に反射光と透過光に分割される。このうち反射光は撮像素子Bに入射される。一方、透過光は第3プリズムP3を通過して撮像素子Aに入射する。尚、撮像素子A、B、Cのそれぞれに入射する被写体光の光量が等しくなるように第1プリズムP1のハーフミラー面40及び第2プリズムP2のハーフミラー面42で被写体光が分割される。また、これらの撮像素子A、B、Cはカラー映像を撮像するものである必要はなく、本実施の形態では白黒画像を撮像するCCDであるものとする。
【0023】
各撮像素子A、B、Cに入射する被写体光の光軸(各撮像素子の光軸)を同一直線上で示すと、図3に示すように、各撮像素子A、B、Cに入射するまでの被写体光に対して撮像素子Bの光路長が最も短く、撮像素子Cの光路長が最も長くなっており、撮像素子Aの光路長は撮像素子Bと撮像素子Cの光路長の中間の長さとなっている。即ち、撮像素子Aの撮像面に対して前後の等距離の位置に撮像素子Bと撮像素子Cの撮像面が平行に配置される。また、撮像素子Aの撮像面は、カメラ本体10のピント面22(図1参照)と共役の関係にあり、撮影レンズ12に入射した被写体光に対する光路長がカメラ本体10の映像用撮像素子の撮像面と一致している。尚、撮像素子Aは、映像用撮像素子の撮像面を結像面とする物体面と撮像素子Aの撮像面を結像面とする物体面とが一致するように配置されており、必ずしも映像用撮像素子の撮像面と光路長が一致している場合に限らない。また、被写体光を撮像素子A、B、Cに分割する光分割光学系は、上述のようなプリズムP1〜P3を使用した構成に限らない。
【0024】
以上のように構成された光学系により、撮影レンズ12に入射した被写体光のうちハーフミラー24で分岐された被写体光が、カメラ本体10のピント面22と共役の位置の近傍に配置された光路長の異なる3つの撮像素子A、B、Cにより撮像される。
【0025】
次に、ピント状態検出に基づくオートフォーカスの制御について概略を説明する。図1に示すようにピント状態検出用撮像素子A、B、Cにより撮像された画像(映像信号)は、信号処理部28に取り込まれる。信号処理部28は、後述のように各撮像素子A、B、Cから取得した映像信号の高周波成分に基づいてカメラ本体10のピント面22に対して撮影レンズ12のピント状態が合焦となるフォーカスレンズFの位置(フォーカス位置)を求める。そして、そのフォーカス位置へのフォーカスレンズFの移動を指令する制御信号をフォーカスモータ駆動回路30に出力する。フォーカスモータ駆動回路30は、図示しないフォーカスモータを駆動し、ギア等からなる動力伝達機構32を介してフォーカスレンズFを移動させ、フォーカスレンズFを信号処理部28によって指示されたフォーカス位置に設定する。このような処理が連続的に行われることによってオートフォーカスの制御が行われる。
【0026】
続いて、信号処理部28の構成及びピント状態検出の処理について説明する。図4は、信号処理部28の構成を示したブロック図である。尚、図4に示す信号処理部28の構成は、信号処理部28での処理内容を説明するための基本的構成を示したもので、便宜上、図4の構成を従来構成といい、本発明に係る構成については後述する。同図に示すようにピント状態検出用撮像素子A、B、Cで撮像された被写体の画像は所定形式の映像信号として出力され、それぞれ各撮像素子A、B、Cに対して個別に配置されたA/D変換器50、60、70、ハイパスフィルタ(HPF)52、62、72、ゲート回路54、64、74、及び、加算器56、66、76を通じて画像の鮮鋭度(画像のコントラスト)を示す焦点評価値の信号に変換されてCPU82に入力されるようになっている。
【0027】
焦点評価値を求めるまでの処理を撮像素子Aに対して配置された回路で説明すると、撮像素子Aから出力された映像信号は、例えば、同期信号発生回路80から与えられる約1/15.75kHzの水平同期信号と約1/60Hzの垂直同期信号が付加された各画素の輝度を示す輝度信号であり、その映像信号は、A/D変換器50によってデジタル信号に変換された後、ハイパスフィルタ(HPF)52に入力され、その映像信号の高域周波数成分が抽出される。HPF52で抽出された高域周波数成分の信号は次にゲート回路54に入力され、1画面分(1フィールド分)の映像信号のうち、オートフォーカスの対象となる所定のAF枠内(例えば、画面中央部分)の画素に対応する信号のみがゲート回路54によって抽出される。尚、AF枠は、例えば図5に示すように画面(撮影レンズ12の画角)の中央部に設定される。そして、ゲート回路54によって抽出された1画面分におけるAF枠内の信号の値が加算器56によって加算される。
【0028】
これにより、AF枠内における映像信号の高域周波数成分の値の総和が求められ、その加算器56によって得られた値は、AF枠内における画像の鮮鋭度の高低を示す焦点評価値としてCPU82によって読み取られる。
【0029】
尚、同図に示す同期信号発生回路80から各種同期信号が撮像素子A、B、C、CPU82等の各回路に与えられ、各回路の処理の同期が図られている。また、以下の説明において撮像素子A、B、Cから得られた焦点評価値をそれぞれチャンネル(ch)A、B、Cの焦点評価値という。また、信号処理部28にはCPU82によってデータの読出し/書込み可能なEEPROM84等が配置されている。
【0030】
CPU82は、上述のようにしてchA、B、Cの焦点評価値を読み取ると、それらの焦点評価値に基づいて、カメラ本体10のピント面22に対する撮影レンズ12の現在のピント状態を検出する。図6は、横軸に撮影レンズ12のフォーカス位置、縦軸に焦点評価値をとり、ある被写体を撮影した際のフォーカス位置に対する焦点評価値の様子を示した図である。図中実線で示す曲線aは、カメラ本体10のピント面22と共役の位置にあるピント状態検出用撮像素子Aから得られるchAの焦点評価値をフォーカス位置に対して示したものであり、図中点線で示す曲線b、cは、それぞれピント状態検出用撮像素子B、Cから得られるchB、chCの焦点評価値をフォーカス位置に対して示したものである。
【0031】
同図において、曲線aに示すchAの焦点評価値が最大(極大)となるフォーカス位置F3が合焦位置であるが、今、撮影レンズ12のフォーカス位置が図中F1の位置に設定されているとする。この場合、chA、chB、chCのそれぞれの焦点評価値は、曲線a、b、cによりフォーカス位置F1に対応する値である。このとき、少なくともchBの焦点評価値の方がchCの焦点評価値よりも大きいことから、合焦位置であるフォーカス位置F3よりフォーカス位置が至近側に設定された状態、即ち、前ピンの状態であることが分かる。
【0032】
一方、撮影レンズ12のフォーカス位置が図中F2の位置に設定されているとすると、chA、chB、chCのそれぞれの焦点評価値は、曲線a、b、cによりフォーカス位置F2に対応する値である。この場合、少なくともchCの焦点評価値の方がchBの焦点評価値よりも大きいことから、合焦位置であるフォーカス位置F3よりフォーカス位置が無限遠側に設定された状態、即ち、後ピンの状態であることが分かる。
【0033】
撮影レンズ12のフォーカス位置が図中F3の合焦位置に設定されているとすると、chA、chB、chCのそれぞれの焦点評価値は、曲線a、b、cによりフォーカス位置F3に対応する値である。このとき、chBの焦点評価値とchCの焦点評価値とが等しいことから、フォーカス位置が合焦位置F3に設定された状態、即ち、合焦の状態であることが分かる。
【0034】
このように、撮像素子A、B、Cのそれぞれから得られるchA、chB、chCのそれぞれの焦点評価値に基づいて、撮影レンズ12の現在のフォーカス位置におけるピント状態が前ピン、後ピン、合焦のいずれかを検出することができる。そして、本実施の形態では、3つの撮像素子A、B、Cから得られるchA、chB、chCの焦点表価値に基づいて合焦となるフォーカス位置を以下のように検出する。
【0035】
上記図6において、chA、chB、chCのそれぞれの焦点評価値分布を示す曲線a、b、cは、略同一形状となることから、あるフォーカス位置におけるchB、chCの焦点評価値は、そのフォーカス位置から所定のシフト量分だけ変位させたフォーカス位置におけるchAの焦点評価値を示している。例えば、図7に示すchAの焦点評価値の曲線aにおいて、フォーカス位置が図中F4に設定されているものとする。このとき、chAの焦点評価値は、曲線a上の点PAの値を示す。一方、chBの焦点評価値は、フォーカス位置F4よりも無限遠側に所定シフト量分だけ変位させたフォーカス位置F5における曲線a上の点PBの値を示し、chCの焦点評価値は、フォーカス位置F4よりも至近側に所定シフト量分だけ変位させたフォーカス位置F6における曲線a上の点PCの値を示す。尚、フォーカス位置F4とフォーカス位置F5との差、即ち、chBの焦点評価値についてのシフト量は、例えば、図5において、曲線bの最大点のフォーカス位置と曲線aと最大点のフォーカス位置の差に等しく、また、フォーカス位置F4とフォーカス位置F6との差、即ち、chCの焦点評価値についてのシフト量は、図6において、曲線cの最大点のフォーカス位置と曲線aと最大点のフォーカス位置の差に等しい。
【0036】
一方、曲線aは所定関数(例えば2次曲線)で近似することができる。従って、各chA、chB、chCの3点PA、PB、PCにおける焦点評価値から曲線aを具体的に特定することができ、その曲線aにおいて焦点評価値が最大となる合焦位置F3を求めることができる。
【0037】
図4のCPU82は、以上のようにchA、B、Cの焦点評価値に基づいて合焦となるフォーカス位置を求めると、そのフォーカス位置となるように、フォーカスモータ駆動回路30に制御信号を送信し、フォーカスレンズFを移動させる。
【0038】
次に、図4に示した信号処理部28の従来構成に対して本発明が適用された信号処理部28の構成について説明する。図8は、本発明が適用された信号処理部28の構成の第1の形態を示した構成図である。尚、図8において、図4の従来構成と同一符号を付したブロックは図4と同一又は類似の処理を行うブロックである。図8の第1の形態を図4の従来構成と比較して説明すると、従来構成では、ピント状態検出用撮像素子A、B、Cからの映像信号(以下、chA、chB、chCの映像信号という)をそれぞれ個別の回路で並列処理してchA、chB、chCの焦点評価値を求めるようにしたが、図8の第1の形態では、共通の処理部(回路)がchA、chB、chCの映像信号を時分割で処理するようになっている。
【0039】
即ち、chA、chB、chCの映像信号は、3つのチャンネルを有するA/D変換器100に入力される。A/D変換器100は、垂直同期信号により1フィールドごとにチャンネルを切り替えてchA、chB、chCの映像信号をA/D変換処理し、そのデジタル信号に変換したchA、chB、chCの映像信号を1フィールド分ずつ順にHPF52に出力する。尚、本形態では、chA、chB、chCの映像信号における垂直同期信号のタイミングは一致しているものとする。
【0040】
例えば、A/D変換器100は、ある垂直同期信号(第1の垂直同期信号)から次の垂直同期信号(第2の垂直同期信号)までの期間でchAの映像信号をアナログ信号からデジタル信号に変換してHPF52に出力すると、次に、第2の垂直同期信号から次の垂直同期信号(第3の垂直同期信号)までの期間でchBの映像信号をアナログ信号からデジタル信号に変換してHPF52に出力する。続いて、第3の垂直同期信号から次の垂直同期信号(第4の垂直同期信号)までの期間でchCの映像信号をアナログ信号からデジタル信号に変換してHPF52に出力する。このように第1の垂直同期信号から第4の垂直同期信号までの間のチャンネルの切り替えを繰り返すことによって、デジタル信号に変換されたchA、chB、chCの映像信号が1フィールド分ずつHPF52に出力される。尚、A/D変換器100において垂直同期信号は同期信号発生回路80から直接取得してもよいし、各撮像素子A、B、Cから入力される映像信号から取得してもよい。
【0041】
このようにA/D変換器100からHPF52に出力されたchA、chB、chCの映像信号は、図4の従来構成で説明したのと同様にHPF52により高域周波数成分が抽出され、ゲート回路54によりAF枠内(図5参照)の信号のみが抽出され出力される。そして、加算器56でゲート回路54から出力された1フィールド分の信号が加算される。これによって、CPU82には、chA、chB、chCの焦点評価値がA/D変換器100で処理されるチャンネルの順に1フィールドごとに切り替えて与えられる。
【0042】
このように共通の処理部によって時分割で各チャンネルの映像信号を処理することによって信号処理部28の回路規模や消費電力を小さくすることができる。特に回路規模が大きいHPF52を各チャンネルの処理に共用したことの効果が大きい。
【0043】
図9は、本発明が適用された信号処理部28の構成の第2の形態を示した構成図である。尚、図4の従来構成及び図8の第1の形態と同一符号を付したブロックは図4及び図8と同一又は類似の処理を行うブロックである。図9の第2の形態では、HPF52から後段の処理は図8の第1の形態におけるHPF52から後段の処理と一致している。一方、図9の第2の形態では、各撮像素子A、B、Cから出力されたchA、chB、chCの映像信号は、図4の従来構成と同様にそれぞれ個別に設けられたA/D変換器50、60、70によりデジタル信号に変換される。そしてその後、同時刻に撮像素子A、B、Cから出力された例えば1フィールド分の映像信号がそれぞれSRAM(Static Random Access Memory)102、104、106に記憶される。各SRAM102、104、106に記憶された1フィールド分の映像信号は、それぞれ所定の順序でHPF52に出力される。
【0044】
例えば、初めにSRAM102に記憶されたchAの1フィールド分の映像信号がHPF52に出力され、続いてSRAM104に記憶されたchBの1フィールド分の映像信号がHPF52に出力される。そして次に、SRAM106に記憶されたchCの1フィールド分の映像信号がHPF52に出力される。このように各撮像素子A、B、Cから同時刻に出力された映像信号をメモリに記憶しておくことにより、各撮像素子A、B、Cで同時刻に撮像されて得られた映像信号に基づくchA、chB、chCの焦点評価値を取得することができる。即ち、図8の第1の形態では、各撮像素子A、B、Cから出力されるリアルタイムの映像信号を時分割で処理するため、各撮像素子A、B、Cで同一時刻に撮像された画像に対する焦点評価値を取得することはできないが、図9の第2の形態では各撮像素子A、B、Cで同一時刻に撮像された画像に対する焦点評価値を取得することができる。
【0045】
尚、図8の第1の形態及び図9の第2の形態において、1フィールドごとにチャンネルを切り替えて1つの処理部で映像信号を処理するようにしたが、焦点評価値を求める際に少なくとも必要な範囲の映像信号、即ち、AF枠内(図5参照)の映像信号に対する処理が終了するごとにチャンネルを切り替えるようにしてもよい。また、1つの処理部で時分割処理する処理内容は第1、第2の形態と異なる場合であってもよく、映像信号に対して施す処理の全て又は一部を1つの処理部で時分割処理する場合であれば本発明を適用できる。特にHPF52の処理だけを1つの処理部で時分割処理し、それ以外の処理は、チャンネルごとの個別の処理部で行うようにしても効果がある。
【0046】
図10は、本発明が適用された信号処理部28の構成の第3の形態を示した構成図である。尚、図4の従来構成及び図8の第1の形態と同一符号を付したブロックは図4及び図8と同一又は類似の処理を行うブロックである。図8の第1の形態におけるA/D変換器100は、chA、chB、chCの映像信号を1フィールドごとに切り替えてA/D変換処理していたが、図10の第3の形態におけるA/D変換器100は、chA、chB、chCの映像信号を1水平走査期間ごとに切り替えてA/D変換処理する。例えば、ある水平同期信号(第1の水平同期信号)から次の水平同期信号(第2の水平同期信号)までの期間でchAの映像信号をアナログ信号からデジタル信号に変換してHPF52に出力すると、次に、第2の水平同期信号から次の水平同期信号(第3の水平同期信号)までの期間でchBの映像信号をアナログ信号からデジタル信号に変換してHPF52に出力する。続いて、第3の水平同期信号から次の水平同期信号(第4の水平同期信号)までの期間でchCの映像信号をアナログ信号からデジタル信号に変換してHPF52に出力する。このように第1の水平同期信号から第4の水平同期信号までの間のチャンネルの切り替えを繰り返すことによって、デジタル信号に変換されたchA、chB、chCの映像信号が1水平走査期間分ずつHPF52に出力される。
【0047】
A/D変換器100から1水平走査期間分ずつ出力されたchA、chB、chCの映像信号は、図4の従来構成で説明したのと同様にHPF52により高域周波数成分が抽出され、ゲート回路54によりAF枠内(図5参照)の信号のみが抽出され出力される。そして、chAの映像信号に対して処理が施されてゲート回路54から出力された信号は加算器56に入力され、chBの映像信号に対して処理が施されてゲート回路54から出力された信号は加算器66に入力される。chCの映像信号に対して処理が施されてゲート回路54から出力された信号は加算器76に入力される。これにより、ゲート回路54から出力された1フィールド分の信号が加算器56、66、76のそれぞれで加算され、加算器56ではchAの焦点評価値、加算器66ではchBの焦点評価値、加算器76ではchCの焦点評価値が求められる。そして、各加算器56、66、76でそれぞれ求められたchA、chB、chCの焦点評価値が毎フィールドごとにCPU82に与えられる。
【0048】
このように共通の処理部によって1水平走査期間ごとに時分割で各チャンネルの映像信号を処理することもでき、第1の形態等と同様に信号処理部28の回路規模を小さくすることができる。
【0049】
尚、第3の形態のように1水平走査期間ごとに時分割で各チャンネルの映像信号を処理する場合、chA、chB、chCの映像信号に対して実際に処理される水平走査線の位置が異なる。そこで、これを防止するために、A/D変換器100で処理するチャンネルの順序に合わせて、各撮像素子A、B、Cの垂直同期信号の時間を1水平走査期間ずつずらすようにして、いずれのチャンネルの映像信号についても同一の水平走査線位置に対して処理が施されるようにしてもよい。即ち、時分割処理のために、あるチャンネルの映像信号に対して他のチャンネルの映像信号の処理が遅れる時間分だけその映像信号の垂直同期信号のタイミングを遅らせることにより、時分割処理において処理される走査線位置と処理されない走査線位置とがチャンネルごとに異ならないようにしてもよい。
【0050】
図11は、本発明が適用された信号処理部28の構成の第4の形態を示した構成図である。尚、図9の第2の形態及び図10の第3の形態と同一符号を付したブロックは図9及び図10と同一又は類似の処理を行うブロックである。図11の第4の形態では、HPF52から後段の処理は図10の第3の実施の形態におけるHPF52から後段の処理と一致している。一方、図11の第4の形態では、各撮像素子A、B、Cから出力されたchA、chB、chCの映像信号は、図9の第2の形態と同様(図4の従来構成と同様)にそれぞれ個別に設けられたA/D変換器50、60、70によりデジタル信号に変換される。そしてその後、同時刻に撮像素子A、B、Cから出力された1水平走査期間分の映像信号がそれぞれSRAM102、104、106に記憶される。各SRAM102、104、106に記憶された1水平走査期間分の映像信号は、それぞれ所定の順序でHPF52に出力される。尚、各撮像素子A、B、Cの垂直同期信号のタイミングは一致しているものとする。
【0051】
例えば、初めにSRAM102に記憶されたchAの1水平走査期間分の映像信号がHPF52に出力され、続いてSRAM104に記憶されたchBの1水平走査期間分の映像信号がHPF52に出力される。そして次に、SRAM106に記憶されたchCの1水平走査期間分の映像信号がHPF52に出力される。このように各撮像素子A、B、Cから同時刻に出力された映像信号をメモリに記憶しておくことにより、各撮像素子A、B、Cで同時刻に撮像されて得られた映像信号であって、同一水平走査線位置の映像信号に基づくchA、chB、chCの焦点評価値を取得することができる。
【0052】
尚、図10の第3の形態及び図11の第4の形態において、1水平走査期間ごとにチャンネルを切り替えて1つの処理部で映像信号を処理するようにしたが、焦点評価値を求める際に少なくとも必要な範囲の映像信号、即ち、AF枠内(図5参照)の映像信号に対する処理が終了するごとにチャンネルを切り替えるようにしてもよい。また、1つの処理部で時分割処理する処理内容は第3、第4の形態と異なる場合であってもよく、映像信号に対して施す処理の全て又は一部を1つの処理部で時分割処理する場合であれば本発明を適用できる。特にHPF52の処理だけを1つの処理部で時分割処理し、それ以外の処理は、チャンネルごとの個別の処理部で行うようにしても効果がある。
【0053】
以上、上記実施の形態では、ピント状態検出用の撮像素子を3つ備えた場合の信号処理部28の構成に本発明を適用した場合について説明したが、本発明は、ピント状態検出用の撮像素子が3つの場合に限らず複数の場合に適用できる。
【0054】
【発明の効果】
以上説明したように本発明に係るオートフォーカスシステムによれば、光路長の異なる位置に配置された複数の撮像素子を用いたオートフォーカスの処理の全て又は一部を単一の処理部で時分割で行うようにしたため、回路規模を小さくすることができ、また、消費電力を低減することができるようになる。
【図面の簡単な説明】
【図1】図1は、本発明が適用されたテレビカメラシステムの構成を示した構成図である。
【図2】図2は、ピント状態検出用の撮像部の構成を示した構成図である。
【図3】図3は、ピント状態検出用撮像素子を同一光軸上で示した図である。
【図4】図4は、ピント状態検出の処理を行う信号処理部の構成を示したブロック図である。
【図5】図5は、画面に対してAF枠の例を示した図である。
【図6】図6は、ある被写体を撮影した際のフォーカス位置に対する各ピント状態検出用の撮像素子における焦点評価値の様子を示した図である。
【図7】図7は、3つのピント状態検出用撮像素子によるピント状態検出の処理の説明に使用した説明図である。
【図8】図8は、本発明が適用された信号処理部の構成の第1の形態を示した構成図である。
【図9】図9は、本発明が適用された信号処理部の構成の第2の形態を示した構成図である。
【図10】図10は、本発明が適用された信号処理部の構成の第3の形態を示した構成図である。
【図11】図11は、本発明が適用された信号処理部の構成の第4の形態を示した構成図である。
【符号の説明】
10…カメラ本体、12…撮影レンズ、F…フォーカスレンズ、R1…前側リレーレンズ、R2…後側リレーレンズ、R3…リレーレンズ、24…ハーフミラー、26…撮像部、A、B、C…撮像素子、28…信号処理部、30…フォーカスモータ駆動回路、50、60、70、100…A/D変換器、52、62、72…ハイパスフィルタ(HPF)、54、64、74…ゲート回路、56、66、76…加算器、80…同期信号発生回路、82…CPU、102、104、106…SRAM[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an autofocus system, and more particularly, to an autofocus system that performs autofocus by a contrast method using a plurality of image sensors having imaging surfaces arranged at positions having different optical path lengths.
[0002]
[Prior art]
Conventionally, there has been proposed a method of detecting a focus state (front focus, rear focus, focus) of a photographing lens by using a plurality of image pickup devices having image pickup surfaces at positions having different optical path lengths (for example, Patent Document 1, See Patent Documents 2, 3, and 4). For example, an optical path length of two focus state detection imaging elements that capture images in the same shooting range with respect to an imaging element that captures a video image (video imaging element) is longer than that of the video imaging element. Place it in a position that is shorter than the position. Then, high-frequency components are extracted from the images (video signals) captured by the focus state detection imaging devices, and based on the extracted high frequency components, the degree of focusing (image quality) on each imaging surface of the focus state detection imaging devices is determined. Are determined and compared. As a result, information on the focus state (focus information) on the imaging surface of the video imaging element, that is, which of the front focus, the rear focus, and the focus state is detected from the magnitude relationship of the focus evaluation values. By applying such a focus state detection method, it is possible to perform focus detection for autofocus, and it is possible to determine whether the subject is in focus or not, and to determine whether the subject is in focus before or after focus. There is an advantage that the reaction speed to the burning is fast.
[0003]
[Patent Document 1]
Japanese Patent Application No. 2001-168246
[0004]
[Patent Document 2]
Japanese Patent Application No. 2001-168247
[0005]
[Patent Document 3]
Japanese Patent Application 2001-168248
[0006]
[Patent Document 4]
Japanese Patent Application 2001-168249
[0007]
[Problems to be solved by the invention]
By the way, the focus evaluation value is obtained by performing the same processing on video signals from a plurality of focus state detecting image sensors. However, if the processing is performed in parallel by a processing circuit provided corresponding to each video signal, an image at the same time is obtained from each image sensor, and there is a case where there is flicker such as a fluorescent lamp, or the image moves on the screen. Although focus information from a subject can be processed with high accuracy, there is a disadvantage in that the circuit size and power consumption increase.
[0008]
The present invention has been made in view of such circumstances, and in an autofocus system that performs autofocusing of a contrast method using a plurality of imaging devices having imaging surfaces at positions having different optical path lengths, a video signal of each imaging device is provided. It is an object of the present invention to provide an auto-focus system for reducing the size and power consumption of a processing unit for obtaining focus information from the camera and reducing the cost.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, according to the first aspect of the present invention, an image obtained by capturing a subject light incident on a photographing lens by a plurality of image sensors arranged at positions having different optical path lengths and obtaining the images by the respective image sensors. In an auto-focus system including a focus control unit that controls focus of the photographing lens based on a signal and automatically performs focusing, all of the same processing performed on each video signal from each of the imaging elements is performed. Alternatively, a single processing unit for processing a part of each video signal in a time-division manner is provided.
[0010]
Further, according to a second aspect of the present invention, in the first aspect of the present invention, the processing unit includes a frame for specifying a range to be focused within an angle of view of the photographing lens as an AF frame. A video signal to be processed is switched to a video signal from another image sensor every time processing of at least a video signal in the AF frame among video signals from one image sensor is completed.
[0011]
Further, according to a third aspect of the present invention, in the first aspect of the present invention, the frame that specifies a range to be focused within the angle of view of the photographing lens is set as an AF frame, and the processing unit includes one frame. Each time the processing of some of the video signals in the AF frame from one image sensor is completed, the video signal to be processed is switched to a video signal from another image sensor.
[0012]
According to a fourth aspect of the present invention, in the second or third aspect of the present invention, the image processing apparatus further includes a storage unit configured to store a video signal from each of the imaging elements, and the processing unit performs the same processing on each of the imaging elements. The video signal output at the time is read out from the storage means and processed.
[0013]
According to a fifth aspect of the present invention, in the third aspect of the invention, the switching of the video signal to be processed is performed based on a horizontal synchronization signal.
[0014]
According to a sixth aspect of the present invention, in the fifth aspect of the invention, the vertical synchronizing signal of the video signal from each of the image sensors is shifted by a predetermined time.
[0015]
According to the present invention, all or part of autofocus processing using a plurality of image sensors arranged at positions having different optical path lengths is performed by a single processing unit in a time-division manner, so that the circuit scale is reduced. And power consumption can be reduced.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a preferred embodiment of an autofocus system according to the present invention will be described in detail with reference to the accompanying drawings.
[0017]
FIG. 1 is a configuration diagram showing a configuration of a television camera system to which the present invention is applied. The television camera system shown in FIG. 1 includes a camera body 10, an interchangeable photographing lens 12, and the like. The camera body 10 captures a video for recording and reproduction, and outputs a video signal of a predetermined format to a recording medium. An image sensor (image sensor for video) for recording, a required circuit, and the like are built in. On the other hand, the taking lens 12 is detachably mounted on the front side of the camera body 10, and as shown in the figure, the optical system of the taking lens 12 has a fixed focus lens from the front end side as generally known. F ', a movable focus lens F, a zoom lens Z including a variable power system and a correction system, an iris I, and a relay lens (relay optical system) including a front relay lens R1 and a rear relay lens R2 are arranged. You. Note that the configuration of each lens in the drawing is simplified, and a lens group including a plurality of lenses may be represented by one lens.
[0018]
Also, as shown in the figure, on the optical path of the subject light between the front relay lens R1 and the rear relay lens R2 of the relay optical system, the inclination is substantially 45 degrees with respect to the optical axis O of the photographing lens 12, A
[0019]
Of the subject light incident from the front end side of the photographing lens 12, other than the light beam branched by the
[0020]
On the other hand, the subject light reflected by the
[0021]
FIG. 2 is a configuration diagram illustrating a configuration of the
[0022]
The subject light reflected by the
[0023]
When the optical axis of the subject light incident on each of the image sensors A, B, and C (the optical axis of each image sensor) is shown on the same straight line, the light enters each of the image sensors A, B, and C as shown in FIG. The optical path length of the image sensor B is the shortest, the optical path length of the image sensor C is the longest, and the optical path length of the image sensor A is intermediate between the optical path lengths of the image sensors B and C. Length. That is, the image pickup surfaces of the image pickup device B and the image pickup device C are arranged in parallel at the same distance before and after the image pickup surface of the image pickup device A. The imaging surface of the imaging device A has a conjugate relationship with the focus surface 22 (see FIG. 1) of the camera body 10, and the optical path length for the subject light incident on the imaging lens 12 is different from that of the video imaging device of the camera body 10. It matches the imaging plane. Note that the image sensor A is arranged so that the object surface of the image sensor of the image pickup device whose image plane is the image forming surface coincides with the object surface of the image sensor A of the image sensor that forms the image surface. The present invention is not limited to the case where the imaging surface of the imaging element for use and the optical path length match. Further, the light splitting optical system that splits the subject light into the image pickup devices A, B, and C is not limited to the configuration using the prisms P1 to P3 as described above.
[0024]
With the optical system configured as described above, the subject light split by the
[0025]
Next, an outline of the control of the autofocus based on the focus state detection will be described. As illustrated in FIG. 1, images (video signals) captured by the focus state detection imaging elements A, B, and C are captured by the
[0026]
Subsequently, a configuration of the
[0027]
The processing up to obtaining the focus evaluation value will be described using a circuit arranged for the image sensor A. The video signal output from the image sensor A is, for example, approximately 1 / 15.75 kHz provided from the synchronization
[0028]
As a result, the sum of the values of the high frequency components of the video signal in the AF frame is obtained, and the value obtained by the
[0029]
It should be noted that various synchronization signals are given from the synchronization
[0030]
Upon reading the focus evaluation values of chA, B, and C as described above, the
[0031]
In the figure, the focus position F3 at which the focus evaluation value of chA indicated by the curve a is maximum (maximum) is the focus position, but the focus position of the photographing lens 12 is now set to the position of F1 in the figure. And In this case, the respective focus evaluation values of chA, chB, and chC are values corresponding to the focus position F1 by the curves a, b, and c. At this time, since at least the focus evaluation value of chB is larger than the focus evaluation value of chC, the focus position is set closer to the focus position F3 that is the focus position, that is, in the state of the front focus. You can see that there is.
[0032]
On the other hand, assuming that the focus position of the photographing lens 12 is set to the position of F2 in the figure, the focus evaluation values of chA, chB, and chC are values corresponding to the focus position F2 by curves a, b, and c. is there. In this case, since at least the focus evaluation value of chC is larger than the focus evaluation value of chB, the state where the focus position is set to the infinity side from the focus position F3 which is the focus position, that is, the state of the back focus It turns out that it is.
[0033]
Assuming that the focus position of the taking lens 12 is set to the focus position of F3 in the figure, the focus evaluation values of chA, chB, and chC are values corresponding to the focus position F3 by curves a, b, and c. is there. At this time, since the focus evaluation value of chB and the focus evaluation value of chC are equal, it is understood that the focus position is set to the focus position F3, that is, the focus state.
[0034]
As described above, based on the focus evaluation values of chA, chB, and chC obtained from each of the imaging devices A, B, and C, the focus state of the imaging lens 12 at the current focus position is set to the front focus, the rear focus, and the focus position. Any of the impatience can be detected. Then, in the present embodiment, the focus position at which focusing is performed is detected as follows based on the focal point values of chA, chB, and chC obtained from the three imaging elements A, B, and C.
[0035]
In FIG. 6, the curves a, b, and c indicating the distributions of the focus evaluation values of chA, chB, and chC have substantially the same shape. The focus evaluation value of chA at the focus position displaced by a predetermined shift amount from the position is shown. For example, in the curve a of the focus evaluation value of chA shown in FIG. 7, it is assumed that the focus position is set to F4 in the figure. At this time, the focus evaluation value of chA is the point P on the curve a. A Shows the value of On the other hand, the focus evaluation value of chB is the point P on the curve a at the focus position F5 displaced by a predetermined shift amount toward infinity from the focus position F4. B The focus evaluation value of chC is the point P on the curve a at the focus position F6 displaced by the predetermined shift amount to the close side from the focus position F4. C Shows the value of Note that the difference between the focus position F4 and the focus position F5, that is, the shift amount for the focus evaluation value of chB is, for example, the focus position of the maximum point of the curve b and the focus position of the curve a and the maximum position of the curve a in FIG. The difference between the focus position F4 and the focus position F6, that is, the shift amount for the focus evaluation value of chC is equal to the difference between the focus position of the maximum point of the curve c and the focus position of the curve a and the maximum point of the curve a in FIG. Equal to position difference.
[0036]
On the other hand, the curve a can be approximated by a predetermined function (for example, a quadratic curve). Therefore, three points P of each chA, chB, chC A , P B , P C , The curve a can be specifically specified from the focus evaluation value, and the in-focus position F3 at which the focus evaluation value becomes maximum in the curve a can be obtained.
[0037]
When the
[0038]
Next, the configuration of the
[0039]
That is, the video signals of chA, chB, and chC are input to the A /
[0040]
For example, the A /
[0041]
The high frequency components of the chA, chB, and chC video signals output from the A /
[0042]
As described above, by processing the video signal of each channel in a time-division manner by the common processing unit, the circuit scale and power consumption of the
[0043]
FIG. 9 is a configuration diagram showing a second form of the configuration of the
[0044]
For example, first, the video signal for one field of chA stored in the
[0045]
In the first embodiment of FIG. 8 and the second embodiment of FIG. 9, the channel is switched for each field and the video signal is processed by one processing unit. The channel may be switched each time the processing for the video signal in the necessary range, that is, the video signal in the AF frame (see FIG. 5) is completed. Further, the content of the time-division processing performed by one processing unit may be different from that of the first and second embodiments, and all or a part of the processing performed on the video signal is performed by the one processing unit. The present invention can be applied to the case of processing. In particular, there is an effect that only the processing of the
[0046]
FIG. 10 is a configuration diagram showing a third mode of the configuration of the
[0047]
As for the chA, chB, and chC video signals output from the A /
[0048]
As described above, the video signal of each channel can be processed in a time-division manner for each horizontal scanning period by the common processing unit, and the circuit scale of the
[0049]
When the video signals of the respective channels are processed in a time-division manner for each horizontal scanning period as in the third embodiment, the positions of the horizontal scanning lines actually processed for the video signals of chA, chB, and chC are determined. different. Therefore, in order to prevent this, the time of the vertical synchronizing signal of each of the imaging devices A, B, and C is shifted by one horizontal scanning period in accordance with the order of channels processed by the A /
[0050]
FIG. 11 is a configuration diagram showing a fourth mode of the configuration of the
[0051]
For example, first, a video signal for one horizontal scanning period of chA stored in the
[0052]
In the third embodiment shown in FIG. 10 and the fourth embodiment shown in FIG. 11, the video signal is processed by one processing unit by switching the channel every one horizontal scanning period. The channel may be switched at least each time the processing for the video signal in the necessary range, that is, the video signal in the AF frame (see FIG. 5) is completed. Further, the content of the time-division processing performed by one processing unit may be different from those of the third and fourth embodiments, and all or a part of the processing performed on the video signal is performed by the one processing unit. The present invention can be applied to the case of processing. In particular, there is an effect that only the processing of the
[0053]
As described above, in the above-described embodiment, the case where the present invention is applied to the configuration of the
[0054]
【The invention's effect】
As described above, according to the autofocus system according to the present invention, all or part of autofocus processing using a plurality of image sensors arranged at positions with different optical path lengths is time-shared by a single processing unit. Therefore, the circuit scale can be reduced, and the power consumption can be reduced.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing a configuration of a television camera system to which the present invention is applied.
FIG. 2 is a configuration diagram illustrating a configuration of an imaging unit for detecting a focus state;
FIG. 3 is a diagram illustrating an image sensor for focus state detection on the same optical axis;
FIG. 4 is a block diagram illustrating a configuration of a signal processing unit that performs focus state detection processing.
FIG. 5 is a diagram illustrating an example of an AF frame with respect to a screen.
FIG. 6 is a diagram illustrating a state of a focus evaluation value in an image sensor for detecting a focus state with respect to a focus position when a certain subject is photographed.
FIG. 7 is an explanatory diagram used for explaining a focus state detection process performed by three focus state detection imaging elements;
FIG. 8 is a configuration diagram showing a first embodiment of the configuration of a signal processing unit to which the present invention has been applied.
FIG. 9 is a configuration diagram showing a second form of the configuration of the signal processing unit to which the present invention is applied;
FIG. 10 is a configuration diagram showing a third mode of the configuration of the signal processing unit to which the present invention is applied;
FIG. 11 is a configuration diagram showing a fourth mode of the configuration of the signal processing unit to which the present invention is applied;
[Explanation of symbols]
10 camera body, 12 photographing lens, F focus lens, R1 front relay lens, R2 rear relay lens, R3 relay lens, 24 half mirror, 26 imaging section, A, B, C imaging Elements, 28 signal processing unit, 30 focus motor drive circuit, 50, 60, 70, 100 A / D converter, 52, 62, 72 high-pass filter (HPF), 54, 64, 74 gate circuit, 56, 66, 76 ... adder, 80 ... synchronization signal generation circuit, 82 ... CPU, 102, 104, 106 ... SRAM
Claims (6)
前記各撮像素子からの各映像信号に対して施される同一の処理の全て又は一部を各映像信号ごとに時分割で処理する単一の処理部を備えたことを特徴とするオートフォーカスシステム。Automatically adjusting the focus by controlling the focus of the photographing lens based on video signals obtained by the plurality of image sensors arranged at positions having different optical path lengths of the subject light incident on the photographing lens based on the image signals obtained by the respective image sensors. In an autofocus system provided with a focus control means performed by
An autofocus system comprising a single processing unit for processing all or a part of the same processing performed on each video signal from each of the imaging elements in a time-division manner for each video signal. .
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002277041A JP2004117492A (en) | 2002-09-24 | 2002-09-24 | Autofocus system |
US10/642,143 US7345706B2 (en) | 2002-08-23 | 2003-08-18 | Auto focus system |
DE10338246A DE10338246A1 (en) | 2002-08-23 | 2003-08-20 | Autofocus System |
FR0310096A FR2843809B1 (en) | 2002-08-23 | 2003-08-22 | AUTOMATIC FOCUSING SYSTEM WITH SENSITIVITY CORRECTION |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002277041A JP2004117492A (en) | 2002-09-24 | 2002-09-24 | Autofocus system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004117492A true JP2004117492A (en) | 2004-04-15 |
Family
ID=32272747
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002277041A Pending JP2004117492A (en) | 2002-08-23 | 2002-09-24 | Autofocus system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004117492A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7636122B2 (en) | 2004-08-10 | 2009-12-22 | Fujinon Corporation | Focus control apparatus for auto-focusing on a subject in an area specified within a range of a camera image picked up by a television camera |
-
2002
- 2002-09-24 JP JP2002277041A patent/JP2004117492A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7636122B2 (en) | 2004-08-10 | 2009-12-22 | Fujinon Corporation | Focus control apparatus for auto-focusing on a subject in an area specified within a range of a camera image picked up by a television camera |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3975395B2 (en) | Camera system | |
KR20070086061A (en) | Image processing and image processing program of image processing | |
US20110050856A1 (en) | Stereoscopic imaging apparatus | |
JP5089154B2 (en) | Auto focus system | |
JP2002365519A (en) | Device for detecting state of focusing | |
JP2002365517A (en) | Device for detecting state of focusing of photographic lens | |
JP2009124313A (en) | Electronic camera | |
JP2002296492A (en) | Adapter for detecting focus state of photographing lens | |
JP4045483B2 (en) | Focus status detection device | |
US7345706B2 (en) | Auto focus system | |
JP3091628B2 (en) | Stereoscopic video camera | |
US7576796B2 (en) | Auto focus system | |
JP2002372661A (en) | Photographic lens | |
JP2002365518A (en) | Device for detecting focusing state of photographic lens | |
JP2001133679A (en) | Electronic camera and automatic focusing method | |
JP2003279846A (en) | Focus state detector for photographing lens | |
JP4612814B2 (en) | Automatic focusing apparatus, control method therefor, and imaging apparatus | |
JP2003270517A (en) | Focus state detector | |
JP2005037490A (en) | Digital camera | |
JP2004117492A (en) | Autofocus system | |
JP4692425B2 (en) | Auto focus system | |
JP2004120015A (en) | Imaging apparatus | |
JP2003279842A (en) | Focus state detector for photographing lens | |
JPH099132A (en) | Automatic focusing device and camera | |
JP2004117488A (en) | Camera system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050608 |
|
A977 | Report on retrieval |
Effective date: 20070501 Free format text: JAPANESE INTERMEDIATE CODE: A971007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070518 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070921 |