JP4334784B2 - Autofocus device and imaging device using the same - Google Patents

Autofocus device and imaging device using the same Download PDF

Info

Publication number
JP4334784B2
JP4334784B2 JP2001175013A JP2001175013A JP4334784B2 JP 4334784 B2 JP4334784 B2 JP 4334784B2 JP 2001175013 A JP2001175013 A JP 2001175013A JP 2001175013 A JP2001175013 A JP 2001175013A JP 4334784 B2 JP4334784 B2 JP 4334784B2
Authority
JP
Japan
Prior art keywords
evaluation value
autofocus
focus
image sensor
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001175013A
Other languages
Japanese (ja)
Other versions
JP2002365524A (en
Inventor
正幸 菅原
誉行 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2001175013A priority Critical patent/JP4334784B2/en
Publication of JP2002365524A publication Critical patent/JP2002365524A/en
Application granted granted Critical
Publication of JP4334784B2 publication Critical patent/JP4334784B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、オートフォーカス装置に関し、特に、被写体とテレビカメラとの距離が頻繁に変化することとなるテレビカメラ等の撮像装置が備えるオートフォーカス装置に適用して有効な技術に関するものである。
【0002】
【従来の技術】
従来のテレビカメラが備えるオートフォーカス装置は、撮影用素子で撮像した画像の高域成分を合焦評価値とし、焦点位置を微小に前後に移動させて撮影した結果に基づいて、レンズの動き方向を演算する、いわゆる山登り法を用いていた。
【0003】
この山登り法によるオートフォーカス制御では、例えば現在の焦点位置である第1の焦点位置での撮影用素子からの画像の高域成分から得られる合焦評価値である第1の合焦評価値を演算し、次に第1の焦点位置から微小位置ずらした第2の焦点位置での撮影用素子からの画像の高域成分から得られる合焦評価値である第2の合焦評価値を演算する。次に、第1の合焦評価値と第2の合焦評価値とを比較し、合焦評価値の大きい焦点位置の方向が合焦位置の方向として、レンズを駆動し焦点位置を移動させる構成となっていた。このように、山登り法によるオートフォーカス制御では、第1の焦点位置と第2の焦点位置とにおける合焦評価値に基づいて、焦点位置の移動方向すなわちレンズの駆動方向を決定し、その方向にレンズを駆動する動作を順次繰り返すことによって、合焦位置方向に焦点位置を移動させていた。
【0004】
合焦評価値としては、例えば撮像素子から得られる映像信号から分離される輝度信号をハイパスフィルタに入力し、まず高周波成分を取り出す。次に、取り出された高周波成分の絶対値を演算し、得られた値を撮像素子の全撮像領域内あるいは予め設定された評価領域内にわたって積分することによって算出していた。
【0005】
【発明が解決しようとする課題】
本発明者は、前記従来技術を検討した結果、以下の問題点を見いだした。
【0006】
テレビカメラやビデオカメラ等のように、長時間にわたる撮影期間で常に被写体に焦点を追従させる場合には、山登り法を用いた従来のオートフォーカス装置は常時フォーカス位置を微妙に変化させて検出を続け、合焦位置を保つ必要があった。このとき、従来のオートフォーカス装置では、前述するように、撮影用素子で撮像した画像の合焦評価値からレンズの駆動方向を算出する際に、現在位置を第1の焦点位置とし、この現在位置からレンズを微小駆動した位置を第2の焦点位置とした画像を撮像する必要があった。すなわち、山登り法を用いた従来のオートフォーカス装置では、少なくとも異なる2つの焦点位置での画像を撮像する必要があり、このときの画像は撮影用素子によって撮像されることとなるので、現在位置(第1の焦点位置)が合焦位置の場合であっても、撮影期間中は第2の焦点位置に微小移動され、正確な合焦位置に焦点位置を維持できないという問題があった。
【0007】
また、前述するように、従来のオートフォーカス装置では、少なくとも2枚の画像が必要となるので、第1の焦点位置における画像と第2の焦点位置における画像とでは、少なくとも2フィールド分の時間間隔が必要となる。すなわち、従来のオートフォーカス装置では、レンズの駆動方向を決定するためには少なくとも2フィールド分の時間が必要となるので、動きのある被写体では第1の焦点位置における画像と第2の焦点位置における画像とでは2フィールド分の時間差が生じてしまうこととなっていた。このために、山登り法を用いたオートフォーカス装置では、検出感度が低くなってしまう、あるいは合焦動作が不安定になってしまうという問題があった。
【0008】
本発明の目的は、正確な合焦位置に焦点位置を維持することが可能な技術を提供することにある。
本発明の他の目的は、動きのある被写体であっても合焦位置に焦点位置を設定することが可能な技術を提供することにある。
本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述及び添付図面によって明らかになるであろう。
【0009】
【課題を解決するための手段】
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、下記のとおりである。
【0010】
(1)撮像された被写体の光学像を映像信号に変換するオートフォーカス用撮像素子と、前記オートフォーカス用撮像素子で得られる映像信号に基づいて、前記オートフォーカス用撮像素子に結像する前記被写体の光学像の鮮鋭度を示す合焦評価値を算出する評価値算出手段と、前記合焦評価値に基づいてレンズの焦点位置を調整し、撮像用撮像素子に前記被写体の光学像を結像する焦点調整手段とを有するオートフォーカス装置において、前記オートフォーカス用撮像素子は入射光の光軸に直交する直交面に対して傾斜して配置され、前記評価値算出手段は前記オートフォーカス用撮像素子の入力面と光軸とが交差する位置における直交面と前記オートフォーカス用撮像素子との交線を境界として分割される分割画素領域毎の合焦評価値を算出する評価値算出手段を備え、前記焦点調整手段は前記分割画素領域毎の合焦評価値を比較する比較手段を備え、前記評価値算出手段は前記撮影用撮像素子の画素領域を前記オートフォーカス用撮像素子の分割画素領域に対応する領域に分割し、前記撮影用撮像素子の分割画素領域毎に合焦評価値を算出する手段と、前記撮影用撮像素子から算出された前記分割画素領域毎の合焦評価値に基づいて前記オートフォーカス用撮像素子の前記分割画素領域毎の合焦評価値を補正する補正手段とを備え、前記焦点調整手段は前記補正されたオートフォーカス用撮像素子の合焦評価値に基づいて、前記レンズの焦点位置を調整する
【0011】
(2)撮像された被写体の光学像を映像信号に変換するオートフォーカス用撮像素子と、前記オートフォーカス用撮像素子で得られる映像信号に基づいて、前記オートフォーカス用撮像素子に結像する前記被写体の光学像の鮮鋭度を示す合焦評価値を算出する評価値算出手段と、前記合焦評価値に基づいてレンズの焦点位置を調整し、撮影用撮像素子に前記被写体の光学像を結像する焦点調整手段とからなるオートフォーカス装置を有する撮像装置において、前記オートフォーカス用撮像素子は入射光の光軸に直交する直交面に対して傾斜して配置され、前記評価値算出手段は前記オートフォーカス用撮像素子の入力面と光軸とが交差する位置における直交面と前記オートフォーカス用撮像素子との交線を境界として分割される分割画素領域毎の合焦評価値を算出する手段とを備え、前記焦点調整手段は前記分割画素領域毎の合焦評価値を比較する比較手段を備え、前記評価値算出手段は前記撮影用撮像素子の画素領域を前記オートフォーカス用撮像素子の分割画素領域に対応する領域に分割し、前記撮影用撮像素子の分割画素領域毎に合焦評価値を算出する手段と、前記撮影用撮像素子から算出された前記分割画素領域毎の合焦評価値に基づいて前記オートフォーカス用撮像素子の前記分割画素領域毎の合焦評価値を補正する補正手段とを備え、前記焦点調整手段は前記補正されたオートフォーカス用撮像素子の合焦評価値に基づいて、前記レンズの焦点位置を調整する
【0012】
前述した手段によれば、撮像素子は入射光の光軸に直交する直交面に対して傾斜して配置されているので、直交面と撮像素子との交線を境界として分割される各分割画素領域の一方はレンズに近くなり、他方の分割画素領域はレンズから遠くなる。従って、この撮像素子をオートフォーカス用撮像素子として用いることによって、1個の撮像素子で、焦点位置を微小な量で移動させた場合の画像を1回の撮像で得ることができる。その結果、合焦位置に焦点位置がある場合には、その焦点位置を維持することができる。また、1回の撮像で異なる2つの焦点位置での画像を得ることができるので、動きのある被写体であっても合焦位置に焦点位置を設定することができる。
【0013】
ここで、評価値算出手段が直交面とオートフォーカス用撮像素子との交線を境界として分割される分割画素領域毎の合焦評価値を算出し、得られた合焦評価値を比較することは、焦点位置を微小な量で移動させた場合の合焦評価値の比較を行うことと等価となるので、この比較結果に基づいて焦点調整手段がレンズの焦点位置を調整することによって、撮像素子に被写体の光学像を結像することが可能となる。
【0014】
従って、このオートフォーカス装置を備える撮像装置では、焦点位置が合焦位置に設定された場合には、被写体の映像出力を得る撮影用撮像素子で撮像される画像の焦点位置は、オートフォーカス動作中であっても移動されることがないので、高品質の被写体像を得ることが可能となる。また、1回の撮像でオートフォーカス動作を行うことができるので、動きのある被写体であっても合焦位置に焦点位置を速やかに移動させることができる。
【0015】
【発明の実施の形態】
以下、本発明について、発明の実施の形態(実施例)とともに図面を参照して詳細に説明する。
なお、発明の実施の形態を説明するための全図において、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
【0016】
図1は本発明の一実施の形態であるオートフォーカス装置の概略構成を説明するための図である。特に、図1の(a)は本実施の形態であるオートフォーカス装置の基本原理を説明するための図であり、図1の(b)は本実施の形態のオートフォーカス用撮像素子及び撮影用撮像素子における領域の分割の一例を説明するための図である。ただし、本実施の形態では、オートフォーカス用撮像素子102及び撮影用撮像素子103の配置位置並びに合焦判定手段104の構成を除く、レンズ101等の光学系、オートフォーカス用撮像素子102及び撮影用撮像素子103の動作を制御する走査駆動パルス系、並びにオートフォーカス用撮像素子102及び撮影用撮像素子103からの映像信号を処理する映像処理系等は周知の構成である。従って、以下の説明では、本願発明のオートフォーカス装置に係わるオートフォーカス用撮像素子102及び撮影用撮像素子103の配置位置、並びに合焦判定手段104における合焦制御について詳細に説明する。
【0017】
図1において、101はレンズ、102はオートフォーカス用撮像素子、103は撮影用撮像素子、104は合焦判定手段、105はレンズ駆動手段、106は光軸、107は第1の領域、108は第2の領域を示す。
【0018】
図1の(a)に示すように、オートフォーカス用撮像素子(以下、AF用撮像素子」と記す)102と、撮影用撮像素子103とはレンズ101の光軸106上に配置される構成となっている。また、AF用撮像素子102と撮影用撮像素子103とからの出力は、それぞれ合焦判定手段104に接続される。すなわち、AF用撮像素子102で撮像された画像(被写体像)と、撮影用撮像素子103で撮像された画像(被写体像)とは、それぞれ合焦判定手段104に出力される構成となっている。合焦判定手段104からの駆動出力はレンズ駆動手段105に出力され、レンズ駆動手段105がレンズ101の図示しない焦点機構を駆動し、その焦点位置を変化させる構成となっている。
【0019】
合焦判定手段104は、例えばAF用撮像素子102及び撮影用撮像素子103で撮像された画像すなわち映像信号の内の輝度信号から高周波成分のみを取り出す周知のハイパスフィルタ(以下、「HPF」と記す)と、HPFを通過した高周波成分の絶対値をそれぞれ演算する周知の絶対値演算手段を備える。また、合焦判定手段104は、絶対値演算手段から出力される値をそれぞれの撮像素子での予め設定された分割画素領域毎すなわち図1の(b)に示す第1の領域107と第2の領域108とに分けて、高周波成分の絶対値をそれぞれ加算し合焦評価値を得る周知の加算手段を備える。さらには、合焦判定手段104は、撮影用撮像素子103での第1の領域107及び第2の領域108の合焦評価値に基づいて、AF用撮像素子102での第1の領域107及び第2の領域108の合焦評価値を補正する補正手段と、補正後のAF用撮像素子102での第1の領域107の合焦評価値と第2の領域の合焦評価値とを比較し、その比較結果に基づいてレンズの駆動方向すなわち焦点位置の移動方向を判定(決定)する周知の判定手段とを備える。このように、本実施の形態の合焦判定手段104は、撮影用撮像素子103からの画像を第1の領域107と第2の領域108との画像に分け、それぞれの領域毎に合焦評価値をそれぞれ演算し、この合焦評価値を山登り法で比較することにより駆動出力を得る構成となっている。ただし、補正手段によって補正されたAF用撮像素子102での第1の領域107の合焦評価値と第2の領域108の合焦評価値とを用いることなく、補正前のAF用撮像素子102での第1の領域107の合焦評価値と第2の領域108の合焦評価値とを比較し、レンズ駆動方向を判定してもよい。このような構成とすることによって、補正手段における補正のための演算が不要となるので、画像の撮像からレンズの駆動までにかかる時間を短縮することができる。
【0020】
レンズ駆動手段105は、合焦判定手段104から出力される駆動方向判定に基づいて、予め設定された量だけレンズ101の図示しない焦点機構を駆動して焦点位置を移動させる周知のレンズ駆動手段である。従って、本実施の形態では、判定手段とレンズ駆動手段105とによって、焦点調整手段として動作する。
【0021】
また、撮影用撮像素子103は従来の撮影用撮像素子と同様に、光軸106に対して垂直、あるいは撮影用撮像素子103で撮像された画像に規定値以上の歪みが生じない程度の誤差で垂直に配置されている。一方、AF用撮像素子102は、図1の(a)から明らかなように、撮影用撮像素子103とは異なり、光軸106に対して直交しない、すなわち撮影用撮像素子103と平行にならないように配置されている。従って、本実施の形態では、撮影用撮像素子103に対してAF用撮像素子102が所定の傾斜角で傾斜配置される構成となっている。
【0022】
ただし、図1の(a)から明らかなように、本実施の形態のオートフォーカス装置では、光軸106とAF用撮像素子102の入射面との交点位置を基準として、AF用撮像素子102を撮影用撮像素子103に対して傾斜させる構成となっている。特に、AF用撮像素子102に配置される横方向に配列される図示しない画素方向をX軸方向、縦方向に配列される図示しない画素方向をY軸方向とし、光軸106とAF用撮像素子102の入射面との交点位置を原点とするX軸及びY軸を設定した場合には、本実施の形態のAF用撮像素子102は、X軸に沿って傾斜される構成となっている。
【0023】
このとき、図1の(b)に示すように、AF用撮像素子102の受光領域の内で、光軸106すなわち境界となるX軸よりも上部の領域を第2の領域108、X軸よりも下部の領域を第1の領域107とした場合、本実施の形態では、AF用撮像素子102は光軸106が受光面の中心となるように配置されているので、第1の領域107と第2の領域108との受光面積が同じとなるように設定される。このようにX軸に沿ってAF用撮像素子102を傾斜させることによって、第2の領域108に対応する合焦評価値の演算を第1の領域107からの画像信号の読み出し中(取り込み中)に行うことが可能となるので、合焦評価値の演算及び比較を速やかに行うことが可能となり、フォーカスの応答性を向上させることが可能となる。
【0024】
なお、第1の領域107と第2の領域108との受光面積は同じ面積に限定されることはないが、その場合には、合焦判定手段104で合焦評価値を演算する際に、第1の領域107と第2の領域108との面積比に従って撮影用撮像素子103で撮像した画像も合焦評価値を演算する必要がある。また、AF用撮像素子102の傾斜はX軸に限定されることはなく、光軸106とAF用撮像素子102の入射面との交点位置を原点とするY軸に沿った傾斜、あるいはこの交点位置を通る入射面上の他の直線に沿った傾斜としてもよい。
【0025】
次に、図2に本実施の形態のオートフォーカス装置における合焦動作を説明するための図を示し、以下、図2に基づいて、本実施の形態のオートフォーカス装置の動作を説明する。ただし、図2の(a)は合焦前における第1の領域の合焦評価値と第2の領域の合焦評価値との関係を説明するための図であり、図2の(b)は合焦後における第1の領域の合焦評価値と第2の領域の合焦評価値との関係を説明するための図である。
【0026】
本実施の形態によるオートフォーカス動作では、AF用撮像素子102及び撮影用撮像素子103で撮像されたそれぞれの画像の輝度信号から、HPFにより高周波成分のみがそれぞれ取り出され、得られた高周波成分は次段のHPFに出力される。このときのHPFの処理は、例えばCCD型やCMOS型の撮像デバイスを用いるAF用撮像素子102及び撮影用撮像素子103から走査線方向に順次出力される映像信号から得られる輝度信号に対して、順次ハイパスフィルタ処理を行うものである。なお、HPFは、デジタル処理とアナログ処理とのどちらでもよい。
【0027】
HPFによって取り出されたそれぞれの高周波成分は、次に絶対値演算手段によってその絶対値がそれぞれ演算され、この絶対値がそれぞれ加算手段に出力される。加算手段では絶対値演算手段から出力されるそれぞれの絶対値(高周波成分の絶対値)を、撮像素子毎に入力順に順次加算していく。ここで、絶対値演算手段からの絶対値が第2の領域108の終端に達した時点、すなわち第2の領域108における加算が終了した時点で、加算手段はそれぞれの加算値を第2の領域108の合焦評価値として補正手段に出力し、加算値をリセットする。この後に、加算手段は次からの絶対値すなわち第1の領域107における絶対値を順次加算していき、絶対値演算手段からの絶対値が第1の領域107の終端に達した時点で、加算値を第1の領域107の合焦評価値として補正手段に出力することによって、第2の領域108の合焦評価値に続いて第1の領域107の合焦評価値を算出する。
【0028】
補正手段では、AF用撮像素子102及び撮影用撮像素子103に対応するそれぞれの第1の領域107の合焦評価値が入力されると、まず、撮影用撮像素子103での第1の領域107の合焦評価値と第2の領域108の合焦評価値との比に基づいて、例えばAF用撮像素子102での第1の領域の合焦評価値を基準として、AF用撮像素子102での第2の領域108の合焦評価値を補正する。次に、この補正された第2の領域の合焦評価値と、基準としたAF用撮像素子102での第1の領域の合焦評価値とは、判定手段に出力される。
【0029】
判定手段では、補正手段から出力されたすなわち補正手段により補正されたAF用撮像素子102での第1の領域107の合焦評価値と、AF用撮像素子102での第2の領域108の合焦評価値とを比較し、焦点位置の移動方向すなわちレンズ101の駆動方向を決定し、レンズ駆動手段105に出力する。ただし、このときの補正処理及び判定処理は、AF用撮像素子102での第1及び第2の領域の合焦評価値の比が撮影用撮像素子103での第1及び第2の領域の合焦評価値比と同じとなるように合焦評価値を補正し、この補正された合焦評価値を比較することによって、焦点位置の移動方向を決定するものである。
【0030】
例えば、AF用撮像素子102での第1の領域107の合焦評価値がa、第2の領域の合焦評価値がbであり、撮影用撮像素子103での第1の領域の合焦評価値がc、第2の領域の合焦評価値がdである場合には、以下のような補正処理及び判定処理となる。前述するように、AF用撮像素子102での第1の領域107の合焦評価値aを基準とする場合には、撮影用撮像素子103での合焦評価値の比であるd/cに、AF用撮像素子102での第2の領域108の合焦評価値bを乗算することによって、補正後の第2の領域108の合焦評価値b×d/cが得られる。次に、判定手段が第1の領域107の合焦評価値aと、補正後の第2の領域108の合焦評価値b×d/cとを比較し、この比較結果がa=b×d/cの場合には、現在の焦点位置が合焦位置となるので、判定手段は現在の焦点位置を維持する指示をレンズ駆動手段105に行う。その結果、レンズ駆動手段105は現在の焦点位置を維持するので、撮影用撮像素子103で得られる画像は合焦位置でのものとなる。なお、a=b×d/cの時には、判定手段がレンズ駆動手段105に移動指示を与えないような構成としてもよいことはいうまでもない。また、a=b×d/cの場合を現在の焦点位置が合焦位置としたが、例えば予め計測等で合焦位置の範囲を特定しておく場合には、判定手段はa=b×d/cを含むa≒b×d/cとなる範囲で現在の焦点位置を合焦位置とするように設定する。このときの合焦位置の範囲の一例としては、撮影用撮像素子103に図示しない被写体の空間的情報を再生するレンズ101からなる光学系の焦点深度やこの焦点深度に係数を乗算した値等を基準とした範囲等がある。
【0031】
判定手段での比較結果がa<b×d/cの時には、AF用撮像素子102での第1の領域107の合焦評価値aに比較して、AF用撮像素子102での第2の領域108の補正後の合焦評価値b×d/cの方が大きいので、判定手段はAF用撮像素子102での第2の領域108の合焦評価値を減少させる方向すなわち焦点位置をレンズ101に近づける方向に移動させる指示をレンズ駆動手段105に行う。一方、判定手段での比較結果がa>b×d/cの時には、AF用撮像素子102での第2の領域108の補正後の合焦評価値b×d/cに比較して、AF用撮像素子102での第1の領域107の合焦評価値aの方が大きいので、判定手段はAF用撮像素子102での第1の領域の合焦評価値を減少させる方向すなわち焦点位置をレンズ101から遠ざける方向に移動させる指示をレンズ駆動手段105に行うことによって、現在の焦点位置が合焦位置の方向へ移動するように、焦点位置を移動させる。なお、判定手段における比較法としては、例えば減算結果の正負による判定や除算結果による判定等の周知の方法を用いる。
【0032】
また、除算による判定法としては、例えばAF用撮像素子102での比であるb/aを撮影用撮像素子103の比であるd/cで除算する場合には、除算結果が1の時には現在の焦点位置が合焦位置となるので、判定手段は現在の焦点位置を維持する指示をレンズ駆動手段105に行う。その結果、レンズ駆動手段105は現在の焦点位置を維持するので、撮影用撮像素子103で得られる画像は合焦位置でのものとなる。ただし、除算結果が1の場合を現在の焦点位置が合焦位置としたが、例えば予め計測等で合焦位置の範囲を特定しておく場合には、判定手段は除算結果として1を含む範囲で現在の焦点位置を合焦位置とするように設定する。このときの合焦位置の範囲の一例としては、撮影用撮像素子103に図示しない被写体の空間的情報を再生するレンズ101からなる光学系の焦点深度やこの焦点深度に係数を乗算した値等を基準とした範囲等がある。
【0033】
判定手段での除算結果が1よりも大きい時には、撮影用撮像素子103での合焦評価値の比に比較して、AF用撮像素子102での第2の領域の合焦評価値の方が大きいので、判定手段はAF用撮像素子102での第2の領域の合焦評価値を減少させる方向すなわち焦点位置をレンズ101に近づける方向に移動させる指示をレンズ駆動手段105に行う。一方、判定手段での除算結果が1未満の時には、撮影用撮像素子103での合焦評価値の比に比較して、AF用撮像素子102での第1の領域の合焦評価値の方が大きいので、判定手段はAF用撮像素子102での第1の領域の合焦評価値を減少させる方向すなわち焦点位置をレンズ101に遠ざける方向に移動させる指示をレンズ駆動手段105に行うことによって、除算結果が1すなわち現在の焦点位置が合焦位置となるように、焦点位置を移動させる。
【0034】
また、撮影用撮像素子103での第1の領域107の合焦評価値cと第2の領域108の合焦評価値dとの比が等しいあるいは等しいと見なせるような場合には、AF用撮像素子102での第1の領域107の合焦評価値aと第2の領域の合焦評価値bとを比較するのみで十分となる。従って、例えば図2の(a)に示すように、AF用撮像素子102での第2の領域108の合焦評価値が第1の領域107の合焦評価値よりも大きい場合には、第2の領域108の合焦評価値から第1の領域107の合焦評価値を減算することによって、各領域での合焦評価値の大小を判定し、その結果に基づいて、現在の焦点位置からの移動方向すなわちレンズの駆動方向を決定し、その指示をレンズ駆動手段105に出力する。ただし、図2の(b)に示すように、合焦評価値の差が0(ゼロ)あるいは予め設定した設定値以内の場合には、現在の焦点位置が合焦位置となるので、判定手段は現在の焦点位置を維持する指示をレンズ駆動手段105に行う。その結果、レンズ駆動手段105は現在の焦点位置を維持するので、撮影用撮像素子103で得られる画像は合焦位置でのものとなる。
【0035】
このように、撮影用撮像素子103での第1の領域107の合焦評価値cと第2の領域108の合焦評価値dとの比が等しいあるいは等しいと見なせるような場合、あるいはAF用撮像素子102の合焦評価値a,bのみで判定処理を行う場合には、補正手段が不要となり、判定手段による減算のみで焦点位置の移動方向が決定できるので、判定に要する時間をさらに小さくすることができる。その結果、他の評価法と組み合わせた場合であっても、1枚の画像(あるいは1フレーム分の画像)の取得から焦点位置移動までの要する時間を小さくすることができる。
【0036】
ただし、以上説明したオートフォーカス装置を備えるテレビカメラやビデオカメラ等の動画を撮影するための撮像装置、及びデジタルカメラ等の静止画を撮影するための撮像装置では、図1に示すようにAF用撮像素子102と撮影用撮像素子103とを同一のレンズ101の光軸106上の同じ位置に配置することは困難となるので、実際の撮像素子の配置では後述するように、AF用と撮影用とのそれぞれの撮像素子の数に対応して2組(あるいはそれ以上)の撮影レンズを用いる、あるいは1組の撮影レンズに入射した光の光路を途中で分離し、AF用と撮影用とのそれぞれの撮像素子に入射する必要がある。
【0037】
図3は本実施の形態のオートフォーカス装置におけるAF用撮像素子と撮影用撮像素子との配置の一例を説明するための図である。特に、図3の(a)は複数個のレンズを用いてAF用撮像素子と撮影用撮像素子とを配置したオートフォーカス装置の概略構成を説明するための図であり、図3の(b)はレンズの後ろで光路を分離してAF用撮像素子と撮影用撮像素子とを配置したオートフォーカス装置の概略構成を説明するための図である。
【0038】
図3の(a)に示すオートフォーカス装置では、図示しない被写体の空間的情報を撮影用撮像素子103に再生する撮影用レンズ301と、被写体の空間的情報をAF用撮像素子102に再生するオートフォーカス用レンズ302とがそれぞれ別々に設けられた構成となっている。すなわち、撮影用レンズ301と撮影用撮像素子103とからなる撮影用のカメラ部と、オートフォーカス用レンズ302とAF用撮像素子102とからなるオートフォーカス用のカメラ部とがそれぞれ別々に構成されるオートフォーカス装置を備えるテレビカメラとなっている。
【0039】
この構成では、撮影用レンズ301とオートフォーカス用レンズ302との焦点移動は連動し、オートフォーカス用レンズ302の焦点位置がこのレンズ302の合焦位置に移動された場合には、撮影用レンズ301の焦点位置もこのレンズ301の合焦位置となるように、撮影用レンズ301とオートフォーカス用レンズ302との特性が設定されると共に、それぞれのレンズに対応する撮影用撮像素子103とAF用撮像素子102とが配置されている。
【0040】
図3の(b)に示すオートフォーカス装置では、テレビカメラの光学系を形成する撮影用レンズ301と撮影用撮像素子103との間に配置した半透過ミラー303によって、撮影用レンズ301から出射された光線(像)の光路を分離し、分離された一方の光線を撮影用撮像素子103に入射させ、他方の光線をAF用撮像素子102に入射させる構成となっている。すなわち、比較的大きくまたその重量も重い光学系を1系統とするオートフォーカス装置を備えるテレビカメラとなっている。
【0041】
この構成では、例えば半透過ミラー303で反射されてAF用撮像素子102の入射面に至る距離が、半透過ミラー303を透過して撮影用撮像素子103の入射面までに至る距離と等しくなるように、AF用撮像素子102と撮影用撮像素子103とが配置される。
【0042】
また、AF用撮像素子102に再生される被写体の空間的情報すなわち画像と、撮影用撮像素子103に再生される被写体の空間的情報すなわち画像とでは、天地が逆転して再生されることとなる。従って、本実施の形態では、例えば被写体の空間的情報の上部がAF用撮像素子102及び撮影用撮像素子103での読み出し開始位置となるように、撮影用撮像素子103とAF用撮像素子102とが配置される。
【0043】
なお、以上に説明した撮影用撮像素子103とAF用撮像素子102とのずれ、すなわち光軸を回転中心とした回転方向のずれ及び各撮像素子102,103の撮像面と平行な方向に対するずれに対しては、周知の画像補正等に修正可能であることはいうまでもない。
【0044】
図4は本実施の形態のオートフォーカス装置における合焦評価値の検出範囲を説明するための図である。ただし、図4の(a)はオートフォーカス用撮像素子及び撮影用撮像素子の位置関係を説明するための図(側面図)であり、図4の(b)はオートフォーカス用撮像素子及び撮影用撮像素子における合焦評価の検出可能領域を説明するための図(正面図)である。
【0045】
図4において、dnは合焦位置からの近被写体側焦点深度、dfは遠被写体側焦点深度を示す。また、以下の説明では、レンズのF値、焦点距離、及び被写体距離で定まる錯乱円が撮像素子の画像サイズと同等になる位置を焦点深度とする。
【0046】
図4の(a)に示すように、AF用撮像素子102と撮影用撮像素子103とがなす角度をαとした場合、焦点深度の内側においては、画像の高域成分の差がないために、合焦評価値は得られないこととなる。従って、合焦評価値が検出可能となる範囲は、AF用撮像素子102と撮影用撮像素子103との交点位置からそれぞれ焦点深度以上離間した領域となる。第1の領域107における焦点深度は、Ln=dn/tanαとなるので、図4の(b)に示す撮像素子102,103の交点位置から焦点深度Lnまでの領域401を除く領域402が、第1の領域107における合焦評価値の検出範囲となる。同様に、第2の領域108における焦点深度は、Lf=df/tanαとなるので、図4の(b)に示す撮像素子102,103の交点位置から焦点深度Lfまでの領域403を除く領域404が、第2の領域108における合焦評価値の検出範囲となる。
【0047】
以上説明したように、本実施の形態のオートフォーカス装置を用いた撮像装置では、被写体の撮像された光学像を映像信号に変換する撮像素子の内で、AF用撮像素子102を入射光すなわちレンズ101の光軸106に対して傾斜して配置する。特に、光軸106に直交する直交面と平行に配置される撮影用撮像素子103に対して、AF用撮像素子102を傾斜して配置することによって、AF用撮像素子102の入力面と光軸106とが交差する位置における直交面と、AF用撮像素子106との交線を境界として、AF用撮像素子106の各画素は2つの領域(第1の領域107と第2の領域108とからなる分割画素領域)の何れかに分割される。このとき、AF用撮像素子106の下端部がレンズ101に近くなるような傾斜の場合には、AF用撮像素子102の第1の領域107がレンズ101に近くなり、第2の領域108はレンズ101から遠くなる。なお、AF用撮像素子102の傾斜方向が逆の場合には、第1及び第2の領域107,108とレンズ101との関係も逆となることはいうまでもない。
【0048】
従って、AF用撮像素子102で1フレーム分の被写体像を撮像した場合であっても、AF用撮像素子102の入力面と光軸106とが交差する位置を中心として、第1の領域107では微小な量で焦点位置をレンズ101側に移動させた場合と同じ効果の画像が得られ、第2の領域では微小な量で焦点位置をレンズ101から遠い側に移動させた場合と同じ効果の画像が得られる。その結果、合焦位置に焦点位置がある場合であっても、レンズ101の焦点位置を移動させることなく異なる2つの焦点位置での画像を得ることができるので、撮影用撮像素子103では焦点位置を維持することができ、オートフォーカス制御に伴う合焦位置からの焦点位置の移動を防止できる。また、1回の撮像で異なる2つの焦点位置での画像を得ることができるので、動きのある被写体であっても合焦位置に焦点位置を速やかに設定することができる。
【0049】
なお、本実施の形態では、撮影用撮像素子103とAF用撮像素子102とからの映像信号の読み出しは、同じ期間で読み出すように制御することによって、フォーカスのために要する演算の時間を短縮する構成としたが、これに限定されることはなく、撮影用撮像素子103からの映像信号の読み出しに続いてAF用撮像素子102からの映像信号を読み出すような構成、あるいはその逆の順番で映像信号を読み出す構成としてもよく、このような構成とすることによって、前述する効果に加えて、合焦判定手段104を構成するHPF、絶対値演算手段、補正手段、及び加算手段を、撮影用撮像素子103とAF用撮像素子とで共用することができるので、合焦判定手段104をハードで構成する場合には回路規模を低減させることが可能となる。一方、合焦判定手段104をマイコン等の周知の情報処理装置上で動作するプログラムによって実現する場合では、情報処理装置にかかる負担を低減できるので、情報処理装置に比較的に安価なものを使用できる。
【0050】
また、本実施の形態では、AF用撮像素子102と撮影用撮像素子103とを同じサイズ及び同じ画像ピッチの撮像素子を使用する場合について説明したが、これに限定されることはなく、例えば画像出力の品質に影響しないAF用撮像素子102に、撮影用撮像素子103と画素数は同じであり画素ピッチが小さい撮像素子を使用することによって、AF用撮像素子102とAF用撮像素子102に係わる光学系を小型化することが可能となるので、オートフォーカス装置を小型化することができる。また、小型のAF用撮像素子102及び光学系を使用することによって、製造コストを低減させることができる。さらには、異なる大きさの入射面積の撮像素子を用いてもよいことはいうまでもない。例えば、撮像用素子103の撮像領域よりも小さいフォーカス領域が予め設定されている場合には、このフォーカス領域の画像を撮像するに十分な撮像領域を有するAF用撮像素子103を用いることによって、AF用撮像素子102のみならずAF用撮像素子102に係わる光学系も小型化することが可能となるので、オートフォーカス装置を小型化することができる。また、小型のAF用撮像素子102及び光学系を使用することによって、製造コストを低減させることができる。
【0051】
また、本実施の形態では、AF用撮像素子102を傾斜させることによって、撮影用撮像素子103に対して、焦点位置を微小距離でレンズ101の側に移動させた画像と、焦点位置を微小距離でレンズ101から遠ざけた位置に移動させた画像とを撮像する構成としたが、これに限定されることはなく、第1の領域107と第2の領域108とをそれぞれ撮像領域とする2個あるいはそれ以上の撮像素子を設ける構成としても前述する効果を得られることはいうまでもない。
【0052】
さらには、本実施の形態では、レンズ駆動手段105は、合焦判定手段104から出力される駆動方向判定に基づいて、レンズ101の焦点機構を駆動し焦点位置を予め設定された量だけ移動させる構成としたが、これに限定されることはない。例えば、合焦判定手段104に第1及び第2の領域107,108の合焦評価値の差を演算する手段を設けると共に、第1及び第2の領域107,108の合焦評価値の差に応じたレンズ101の移動量を格納する移動量格納手段を設け、焦点機構が合焦判定手段104からの合焦評価値の差に基づいて、移動量格納手段から合焦評価値の差に対応する移動量を検索し、この検索された移動量と合焦判定手段104からの移動方向でレンズ101を移動させることによって、レンズ101の焦点移動を精度良く、また効率的に行うことができるので、合焦までに要する時間を短縮し効率的な合焦動作を実現できる。ただし、第1及び第2の領域107,108の合焦評価値の差に応じたレンズ101の移動量は、合焦評価値が得られる毎に演算してもよいことはいうまでもない。さらには、レンズ101のF値や焦点距離や被写体距離等も勘案してレンズ101の移動量を算出することによって、レンズ101の焦点移動をさらに精度良く、さらに効率的に行うことができ、合焦までに要する時間をさらに短縮した効率的な合焦動作を実現できる。
【0053】
以上、本発明者によってなされた発明を、前記発明の実施の形態に基づき具体的に説明したが、本発明は、前記発明の実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。
【0054】
【発明の効果】
本願において開示される発明のうち代表的なものによって得られる効果を簡単に説明すれば、下記の通りである。
(1)AF用撮像素子は入射光の光軸に直交する直交面に対して傾斜して配置されているので、1個の撮像素子で、焦点位置を微小な量で移動させた場合の画像を1回の撮像で得ることができる。その結果、合焦位置に焦点位置がある場合あっても、その焦点位置を移動させることなくオートフォーカス動作を行うことができる。
(2)AF用撮像素子が1個のみという簡易な構成でオートフォーカス動作を行うことができるので、オートフォーカス装置の構成を簡単化することが可能となる。その結果、装置を小型化及び低コスト化できる。
(3)オートフォーカス制御に従来の山登り法を用いた場合であっても、1個所の焦点位置での画像に基づいたオートフォーカス動作を行うことができる。
(4)1枚の画像からオートフォーカス動作を行うことができるので、オートフォーカス動作に係わる処理を時間的なロスなく行うことができる。その結果、動いている被写体であっても、速やかに合焦位置に焦点位置を移動させることができる。
【図面の簡単な説明】
【図1】本発明の一実施の形態であるオートフォーカス装置の概略構成を説明するための図である。
【図2】本実施の形態のオートフォーカス装置における合焦動作を説明するための図である。
【図3】本実施の形態のオートフォーカス装置におけるAF用撮像素子と撮影用撮像素子との配置の一例を説明するための図である。
【図4】本実施の形態のオートフォーカス装置における合焦評価値の検出範囲を説明するための図である。
【符号の説明】
101…レンズ 102…オートフォーカス用撮像素子
103…撮影用撮像素子 104…合焦判定手段
105…レンズ駆動手段 106…光軸
107…第1の領域 108…第2の領域
301…撮影用レンズ 302…オートフォーカス用レンズ
303…半透過ミラー 401…第1の領域での焦点深度領域
402,404…合焦評価値の検出可能範囲
403…第3の領域での焦点深度領域
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an autofocus device, and more particularly to a technique effective when applied to an autofocus device provided in an imaging device such as a television camera in which the distance between a subject and the television camera changes frequently.
[0002]
[Prior art]
A conventional TV camera has an autofocus device that uses the high-frequency component of the image captured by the imaging element as the focus evaluation value and moves the focal position slightly back and forth based on the result of shooting. The so-called hill-climbing method is used.
[0003]
In the autofocus control by the hill-climbing method, for example, the first focus evaluation value that is a focus evaluation value obtained from the high frequency component of the image from the imaging element at the first focus position that is the current focus position is obtained. And then calculating a second focus evaluation value, which is a focus evaluation value obtained from the high frequency component of the image from the imaging element at the second focus position shifted slightly from the first focus position. To do. Next, the first focus evaluation value and the second focus evaluation value are compared, and the lens is driven to move the focus position with the direction of the focus position having the large focus evaluation value as the direction of the focus position. It was a composition. As described above, in the autofocus control by the hill-climbing method, the moving direction of the focal position, that is, the lens driving direction is determined based on the focus evaluation values at the first focal position and the second focal position, and in that direction. The focus position is moved in the in-focus position direction by sequentially repeating the operation of driving the lens.
[0004]
As the focus evaluation value, for example, a luminance signal separated from a video signal obtained from an image sensor is input to a high-pass filter, and first a high-frequency component is extracted. Next, the absolute value of the extracted high-frequency component is calculated, and the obtained value is calculated by integrating within the entire imaging region of the image sensor or a preset evaluation region.
[0005]
[Problems to be solved by the invention]
As a result of examining the prior art, the present inventor has found the following problems.
[0006]
When the focus always follows the subject over a long shooting period, such as a TV camera or a video camera, the conventional autofocus device using the hill-climbing method always changes the focus position slightly and continues detection. It was necessary to keep the in-focus position. At this time, in the conventional autofocus device, as described above, when calculating the lens driving direction from the focus evaluation value of the image captured by the imaging element, the current position is set as the first focus position, and this current position is determined. It was necessary to capture an image with the second focus position at the position where the lens was finely driven from the position. That is, in the conventional autofocus device using the hill-climbing method, it is necessary to capture images at at least two different focal positions, and the images at this time are captured by the imaging element, so the current position ( Even when the first focus position) is the in-focus position, there is a problem that the focus position cannot be maintained at the correct in-focus position because it is slightly moved to the second focus position during the photographing period.
[0007]
Further, as described above, since the conventional autofocus device requires at least two images, the time interval for at least two fields between the image at the first focus position and the image at the second focus position. Is required. That is, in the conventional autofocus device, it takes time for at least two fields to determine the lens driving direction. Therefore, in a moving subject, the image at the first focal position and the second focal position are used. There was a time difference of two fields from the image. For this reason, the autofocus device using the hill-climbing method has a problem that the detection sensitivity becomes low or the focusing operation becomes unstable.
[0008]
An object of the present invention is to provide a technique capable of maintaining a focal position at an accurate in-focus position.
Another object of the present invention is to provide a technique capable of setting a focal position at a focus position even for a moving subject.
The above and other objects and novel features of the present invention will be apparent from the description of this specification and the accompanying drawings.
[0009]
[Means for Solving the Problems]
Of the inventions disclosed in this application, the outline of typical ones will be briefly described as follows.
[0010]
(1) Convert an optical image of a captured subject into a video signal For auto focus An imaging device; For auto focus Based on the video signal obtained by the imaging device, For auto focus An evaluation value calculating means for calculating a focus evaluation value indicating the sharpness of the optical image of the subject imaged on the image sensor, and adjusting the focal position of the lens based on the focus evaluation value; For imaging In an autofocus device having a focus adjustment unit that forms an optical image of the subject on an image sensor, For auto focus The image sensor is arranged to be inclined with respect to an orthogonal plane orthogonal to the optical axis of the incident light, and the evaluation value calculation means is At the position where the input surface of the image sensor for autofocus and the optical axis intersect Orthogonal plane and said For auto focus Evaluation value calculation means for calculating a focus evaluation value for each divided pixel region divided with the intersection line with the image sensor as a boundary When And the focus adjustment means includes comparison means for comparing focus evaluation values for the divided pixel areas. The evaluation value calculation means divides the pixel area of the imaging element for imaging into areas corresponding to the divided pixel areas of the imaging element for autofocus, and sets a focus evaluation value for each divided pixel area of the imaging element for imaging. Means for calculating, and correction means for correcting the focus evaluation value for each of the divided pixel areas of the image sensor for autofocus based on the focus evaluation value for each of the divided pixel areas calculated from the imaging element for photographing. And the focus adjustment means adjusts the focal position of the lens based on the corrected focus evaluation value of the image sensor for autofocus. .
[0011]
(2) An autofocus image sensor that converts an optical image of a captured subject into a video signal, and the subject that forms an image on the autofocus image sensor based on a video signal obtained by the autofocus image sensor An evaluation value calculation means for calculating a focus evaluation value indicating the sharpness of the optical image, and adjusting a focal position of the lens based on the focus evaluation value, thereby forming an optical image of the subject on the image sensor for photographing. In the imaging apparatus having an autofocus device including the focus adjustment unit, the autofocus imaging element is disposed to be inclined with respect to an orthogonal plane orthogonal to the optical axis of incident light, and the evaluation value calculation unit is At the position where the input surface of the image sensor for autofocus and the optical axis intersect Means for calculating a focus evaluation value for each divided pixel region that is divided with an intersecting line between the orthogonal plane and the image sensor for autofocus as a boundary, and the focus adjustment unit performs focus evaluation for each divided pixel region. Comparing means for comparing values The evaluation value calculation means divides the pixel area of the imaging element for imaging into areas corresponding to the divided pixel areas of the imaging element for autofocus, and sets a focus evaluation value for each divided pixel area of the imaging element for imaging. Means for calculating, and correction means for correcting the focus evaluation value for each of the divided pixel areas of the image sensor for autofocus based on the focus evaluation value for each of the divided pixel areas calculated from the imaging element for photographing. And the focus adjustment means adjusts the focal position of the lens based on the corrected focus evaluation value of the image sensor for autofocus. .
[0012]
According to the above-described means, since the imaging device is arranged to be inclined with respect to the orthogonal plane orthogonal to the optical axis of the incident light, each divided pixel is divided with the intersection line between the orthogonal plane and the imaging device as a boundary. One of the regions is close to the lens, and the other divided pixel region is far from the lens. Therefore, by using this image sensor as an autofocus image sensor, an image when the focal position is moved by a minute amount with one image sensor can be obtained by one imaging. As a result, when the focus position is at the focus position, the focus position can be maintained. Further, since images at two different focal positions can be obtained by one imaging, the focal position can be set at the in-focus position even for a moving subject.
[0013]
Here, the evaluation value calculation means calculates a focus evaluation value for each divided pixel area divided by using the intersecting line between the orthogonal plane and the autofocus imaging device as a boundary, and compares the obtained focus evaluation values. Is equivalent to comparing the focus evaluation values when the focal position is moved by a minute amount. Therefore, the focus adjustment unit adjusts the focal position of the lens based on the comparison result, thereby obtaining an image. An optical image of a subject can be formed on the element.
[0014]
Therefore, in the imaging apparatus including the autofocus device, when the focus position is set to the in-focus position, the focus position of the image captured by the imaging image sensor that obtains the video output of the subject is in the autofocus operation. However, since it is not moved, a high-quality subject image can be obtained. In addition, since the autofocus operation can be performed with one imaging, the focus position can be quickly moved to the in-focus position even for a moving subject.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described in detail with reference to the drawings together with embodiments (examples) of the invention.
Note that components having the same function are denoted by the same reference symbols throughout the drawings for describing the embodiment of the invention, and the repetitive description thereof is omitted.
[0016]
FIG. 1 is a diagram for explaining a schematic configuration of an autofocus device according to an embodiment of the present invention. In particular, FIG. 1A is a diagram for explaining the basic principle of the autofocus device according to the present embodiment, and FIG. 1B is an autofocus image sensor and photographing device according to the present embodiment. It is a figure for demonstrating an example of the division | segmentation of the area | region in an image sensor. However, in the present embodiment, the optical system such as the lens 101, the autofocus image sensor 102, and the image capturing device are excluded, except for the arrangement positions of the autofocus image sensor 102 and the image sensor 103 and the configuration of the focus determination unit 104. The scanning drive pulse system that controls the operation of the image sensor 103 and the video processing system that processes the video signals from the autofocus image sensor 102 and the image sensor 103 have a known configuration. Therefore, in the following description, the arrangement positions of the autofocus image sensor 102 and the image sensor 103 for photographing and the focus control in the focus determination unit 104 according to the autofocus device of the present invention will be described in detail.
[0017]
In FIG. 1, 101 is a lens, 102 is an image sensor for autofocus, 103 is an image sensor for photographing, 104 is a focusing determination unit, 105 is a lens driving unit, 106 is an optical axis, 107 is a first region, and 108 is A second region is shown.
[0018]
As shown in FIG. 1A, an autofocus imaging device (hereinafter referred to as an AF imaging device) 102 and a photographing imaging device 103 are arranged on an optical axis 106 of a lens 101. It has become. Outputs from the AF image sensor 102 and the image sensor 103 are connected to the focus determination unit 104, respectively. In other words, the image (subject image) captured by the AF image sensor 102 and the image (subject image) captured by the image sensor 103 are each output to the focus determination unit 104. . The drive output from the focus determination means 104 is output to the lens drive means 105, and the lens drive means 105 drives a focus mechanism (not shown) of the lens 101 to change the focus position.
[0019]
The focus determination unit 104 is a well-known high-pass filter (hereinafter, referred to as “HPF”) that extracts only high-frequency components from luminance signals in images captured by the AF image sensor 102 and the image sensor 103, that is, video signals, for example. ) And known absolute value calculation means for calculating the absolute values of the high-frequency components that have passed through the HPF. Further, the focus determination unit 104 outputs the value output from the absolute value calculation unit for each predetermined divided pixel region in each image sensor, that is, the first region 107 and the second region shown in FIG. And a known adding means for adding the absolute values of the high frequency components to obtain the focus evaluation value. Further, the focus determination unit 104 determines the first area 107 and the AF area 102 based on the focus evaluation values of the first area 107 and the second area 108 in the imaging element 103. The correction means for correcting the focus evaluation value of the second area 108 and the focus evaluation value of the first area 107 and the focus evaluation value of the second area in the AF image sensor 102 after correction are compared. And a known determination means for determining (determining) the driving direction of the lens, that is, the moving direction of the focal position based on the comparison result. As described above, the focus determination unit 104 according to the present embodiment divides the image from the imaging element 103 for imaging into the images of the first area 107 and the second area 108, and performs the focus evaluation for each area. Each value is calculated, and the drive output is obtained by comparing the in-focus evaluation value by the hill-climbing method. However, the AF image sensor 102 before correction is not used without using the focus evaluation value of the first area 107 and the focus evaluation value of the second area 108 in the AF image sensor 102 corrected by the correction unit. The in-focus evaluation value of the first area 107 and the in-focus evaluation value of the second area 108 may be compared to determine the lens driving direction. By adopting such a configuration, it is not necessary to perform a correction operation in the correction unit, so that it is possible to reduce the time taken from image capturing to lens driving.
[0020]
The lens driving unit 105 is a well-known lens driving unit that drives a focusing mechanism (not shown) of the lens 101 by a predetermined amount based on the driving direction determination output from the focusing determination unit 104 to move the focal position. is there. Therefore, in the present embodiment, the determination unit and the lens driving unit 105 operate as a focus adjustment unit.
[0021]
In addition, like the conventional image sensor for photographing, the image sensor for photographing 103 is an error that is perpendicular to the optical axis 106 or does not cause distortion exceeding a specified value in an image captured by the image sensor for photographing 103. It is arranged vertically. On the other hand, as is clear from FIG. 1A, the AF image sensor 102 is not orthogonal to the optical axis 106, that is, not parallel to the image sensor 103, unlike the image sensor 103. Is arranged. Therefore, in the present embodiment, the AF image sensor 102 is inclined with a predetermined tilt angle with respect to the imaging image sensor 103.
[0022]
However, as is clear from FIG. 1A, in the autofocus device according to the present embodiment, the AF image sensor 102 is mounted on the basis of the intersection position between the optical axis 106 and the incident surface of the AF image sensor 102. It is configured to be inclined with respect to the imaging element 103 for imaging. In particular, a pixel direction (not shown) arranged in the lateral direction arranged in the AF image sensor 102 is an X axis direction, and a pixel direction (not shown) arranged in the vertical direction is a Y axis direction, and the optical axis 106 and the AF image sensor. When the X-axis and the Y-axis having the origin at the intersection point with the incident surface 102 are set, the AF image sensor 102 of the present embodiment is configured to be inclined along the X-axis.
[0023]
At this time, as shown in FIG. 1 (b), in the light receiving area of the AF image sensor 102, the area above the optical axis 106, that is, the X axis serving as the boundary, is defined as the second area 108 and the X axis. In this embodiment, when the lower region is the first region 107, the AF imaging element 102 is arranged so that the optical axis 106 is at the center of the light receiving surface. The light receiving area of the second region 108 is set to be the same. By tilting the AF image sensor 102 along the X axis in this way, the calculation of the focus evaluation value corresponding to the second area 108 is being read (captured) from the first area 107. Therefore, the focus evaluation value can be quickly calculated and compared, and the focus responsiveness can be improved.
[0024]
The light receiving areas of the first region 107 and the second region 108 are not limited to the same area, but in that case, when the focus evaluation unit 104 calculates the focus evaluation value, It is necessary to calculate a focus evaluation value for an image captured by the imaging element 103 in accordance with the area ratio between the first region 107 and the second region 108. Further, the inclination of the AF image sensor 102 is not limited to the X axis, and the inclination along the Y axis with the intersection point between the optical axis 106 and the incident surface of the AF image sensor 102 as the origin, or this intersection point. It is good also as the inclination along the other straight line on the entrance plane passing through a position.
[0025]
Next, FIG. 2 shows a diagram for explaining the focusing operation in the autofocus device of the present embodiment. Hereinafter, the operation of the autofocus device of the present embodiment will be described based on FIG. However, FIG. 2A is a diagram for explaining the relationship between the focus evaluation value of the first region and the focus evaluation value of the second region before focusing, and FIG. FIG. 10 is a diagram for explaining the relationship between the focus evaluation value of the first region and the focus evaluation value of the second region after focusing.
[0026]
In the autofocus operation according to the present embodiment, only high frequency components are extracted by the HPF from the luminance signals of the respective images picked up by the AF image pickup device 102 and the image pickup image pickup device 103, and the obtained high frequency components are To the HPF of the stage. The HPF processing at this time is performed on the luminance signal obtained from the image signal sequentially output in the scanning line direction from the AF imaging element 102 and the imaging imaging element 103 using, for example, a CCD type or CMOS type imaging device. The high-pass filter process is sequentially performed. The HPF may be either digital processing or analog processing.
[0027]
Each high-frequency component extracted by the HPF is then calculated by the absolute value calculation means, and the absolute value is output to the addition means. The adding means sequentially adds the respective absolute values (absolute values of high frequency components) output from the absolute value calculating means in the order of input for each image sensor. Here, when the absolute value from the absolute value calculating means reaches the end of the second area 108, that is, when the addition in the second area 108 is completed, the adding means assigns each added value to the second area 108. The in-focus evaluation value 108 is output to the correction means, and the added value is reset. Thereafter, the adding means sequentially adds the next absolute value, that is, the absolute value in the first area 107, and the addition is performed when the absolute value from the absolute value calculating means reaches the end of the first area 107. By outputting the value as a focus evaluation value of the first region 107 to the correction unit, the focus evaluation value of the first region 107 is calculated following the focus evaluation value of the second region 108.
[0028]
When the focus evaluation values of the first areas 107 corresponding to the AF image sensor 102 and the imaging image sensor 103 are input to the correction unit, first, the first area 107 of the imaging image sensor 103 is input. Based on the ratio between the in-focus evaluation value of the first area and the in-focus evaluation value of the second area 108, for example, the AF image sensor 102 uses the focus evaluation value of the first area in the AF image sensor 102 as a reference. The focus evaluation value of the second area 108 is corrected. Next, the corrected focus evaluation value of the second area and the reference focus evaluation value of the first area in the AF image sensor 102 are output to the determination unit.
[0029]
In the determination unit, the focus evaluation value of the first area 107 in the AF image sensor 102 output from the correction unit, that is, corrected by the correction unit, and the second area 108 in the AF image sensor 102 are matched. The focus evaluation value is compared, and the moving direction of the focal position, that is, the driving direction of the lens 101 is determined, and is output to the lens driving means 105. However, the correction process and the determination process at this time are such that the ratio of the focus evaluation values of the first and second areas in the AF image sensor 102 is the same between the first and second areas in the image sensor 103. The focus evaluation value is corrected so as to be the same as the focus evaluation value ratio, and the movement direction of the focal position is determined by comparing the corrected focus evaluation values.
[0030]
For example, the focus evaluation value of the first area 107 in the AF image sensor 102 is a, the focus evaluation value of the second area is b, and the focus of the first area in the image sensor 103 is When the evaluation value is c and the focus evaluation value of the second region is d, the following correction processing and determination processing are performed. As described above, when the focus evaluation value a of the first region 107 in the AF imaging element 102 is used as a reference, the focus evaluation value ratio in the imaging image sensor 103 is d / c. By multiplying the focus evaluation value b of the second region 108 in the AF image sensor 102, the focus evaluation value b × d / c of the second region 108 after correction is obtained. Next, the determination unit compares the focus evaluation value a of the first region 107 with the focus evaluation value b × d / c of the corrected second region 108, and the comparison result is a = b ×. In the case of d / c, since the current focal position is the in-focus position, the determination unit instructs the lens driving unit 105 to maintain the current focal position. As a result, the lens driving unit 105 maintains the current focal position, so that the image obtained by the photographing imaging element 103 is the in-focus position. Needless to say, when a = b × d / c, the determination unit may not give a movement instruction to the lens driving unit 105. Further, although the current focal position is set to the in-focus position when a = b × d / c, for example, when the range of the in-focus position is specified in advance by measurement or the like, the determination unit determines that a = b × The current focus position is set to be the in-focus position within a range including a / b * d / c including d / c. As an example of the range of the focus position at this time, the focal depth of the optical system including the lens 101 that reproduces the spatial information of the subject (not shown) on the photographing image sensor 103, a value obtained by multiplying the focal depth by a coefficient, and the like. There are standard ranges.
[0031]
When the comparison result in the determination unit is a <b × d / c, the second evaluation result in the AF image sensor 102 is compared with the focus evaluation value a in the first area 107 in the AF image sensor 102. Since the in-focus evaluation value b × d / c after correction of the area 108 is larger, the determination unit determines the direction in which the in-focus evaluation value of the second area 108 in the AF image sensor 102 is reduced, that is, the focal position as the lens. The lens driving unit 105 is instructed to move in a direction closer to the lens 101. On the other hand, when the comparison result by the determination unit is a> b × d / c, the AF evaluation result is compared with the corrected focus evaluation value b × d / c of the second area 108 in the AF image sensor 102. Since the focus evaluation value a of the first area 107 in the image pickup device 102 is larger, the determination means determines the direction in which the focus evaluation value of the first area in the AF image pickup device 102 is decreased, that is, the focal position. By instructing the lens driving means 105 to move in a direction away from the lens 101, the focal position is moved so that the current focal position moves in the direction of the in-focus position. As a comparison method in the determination means, for example, a known method such as determination based on positive / negative of a subtraction result or determination based on a division result is used.
[0032]
As a determination method by division, for example, when b / a which is a ratio in the AF image sensor 102 is divided by d / c which is a ratio in the imaging image sensor 103, the current result is obtained when the division result is 1. Therefore, the determination unit instructs the lens driving unit 105 to maintain the current focal position. As a result, the lens driving unit 105 maintains the current focal position, so that the image obtained by the photographing imaging element 103 is the in-focus position. However, when the division result is 1, the current focal position is the in-focus position. However, for example, when the range of the in-focus position is specified in advance by measurement or the like, the determination unit includes a range including 1 as the division result. To set the current focus position as the in-focus position. As an example of the range of the focus position at this time, the focal depth of the optical system including the lens 101 that reproduces the spatial information of the subject (not shown) on the photographing image sensor 103, a value obtained by multiplying the focal depth by a coefficient, and the like. There are standard ranges.
[0033]
When the result of division by the determination means is larger than 1, the focus evaluation value of the second area in the AF image sensor 102 is more compared to the ratio of the focus evaluation value in the image sensor 103. Since it is large, the determination unit instructs the lens driving unit 105 to move the focus evaluation value in the second region of the AF image sensor 102 in a direction that decreases the focus evaluation value, that is, in the direction that brings the focal position closer to the lens 101. On the other hand, when the result of division by the determination unit is less than 1, the focus evaluation value of the first area in the AF image sensor 102 is compared with the ratio of the focus evaluation value in the image sensor 103. Therefore, the determination unit instructs the lens driving unit 105 to move the focus evaluation value in the direction to decrease the focus evaluation value of the first area in the AF image sensor 102, that is, the direction away from the lens 101, to the lens driving unit 105. The focus position is moved so that the division result is 1, that is, the current focus position becomes the focus position.
[0034]
When the ratio of the focus evaluation value c of the first area 107 and the focus evaluation value d of the second area 108 in the image pickup image sensor 103 can be regarded as equal or equal, the AF imaging is performed. It is sufficient to compare the focus evaluation value a of the first region 107 and the focus evaluation value b of the second region at the element 102. Therefore, for example, as shown in FIG. 2A, when the focus evaluation value of the second area 108 in the AF image sensor 102 is larger than the focus evaluation value of the first area 107, The focus evaluation value of the first region 107 is subtracted from the focus evaluation value of the second region 108 to determine the magnitude of the focus evaluation value in each region. Based on the result, the current focus position is determined. The moving direction from the lens, that is, the lens driving direction is determined, and the instruction is output to the lens driving means 105. However, as shown in FIG. 2B, when the difference between the focus evaluation values is 0 (zero) or within a preset value, the current focus position becomes the focus position. Instructs the lens driving means 105 to maintain the current focal position. As a result, the lens driving unit 105 maintains the current focal position, so that the image obtained by the photographing imaging element 103 is the in-focus position.
[0035]
As described above, when the ratio of the focus evaluation value c of the first region 107 and the focus evaluation value d of the second region 108 in the imaging image sensor 103 can be regarded as equal or equal, or for AF When the determination process is performed only with the focus evaluation values a and b of the image sensor 102, the correction unit is unnecessary, and the moving direction of the focal position can be determined only by subtraction by the determination unit, so that the time required for the determination can be further reduced. can do. As a result, even when combined with other evaluation methods, the time required from the acquisition of one image (or an image for one frame) to the movement of the focal position can be reduced.
[0036]
However, in the imaging apparatus for capturing a moving image such as a television camera or a video camera provided with the above-described autofocus apparatus and the imaging apparatus for capturing a still image such as a digital camera, as shown in FIG. Since it is difficult to arrange the image pickup element 102 and the image pickup image pickup element 103 at the same position on the optical axis 106 of the same lens 101, in the actual image pickup element arrangement, as described later, for AF and for image pickup Use two sets (or more) of photographic lenses corresponding to the number of each image sensor, or separate the optical path of light incident on one set of photographic lenses, It is necessary to enter each imaging element.
[0037]
FIG. 3 is a diagram for explaining an example of the arrangement of the AF image sensor and the image sensor for photographing in the autofocus device according to the present embodiment. In particular, FIG. 3A is a diagram for explaining a schematic configuration of an autofocus apparatus in which an AF imaging element and a photographing imaging element are arranged using a plurality of lenses, and FIG. FIG. 3 is a diagram for explaining a schematic configuration of an autofocus device in which an optical image sensor and a photographing image sensor are arranged by separating an optical path behind a lens.
[0038]
In the autofocus device shown in FIG. 3A, an imaging lens 301 that reproduces the spatial information of a subject (not shown) on the imaging sensor 103 and an auto that reproduces the spatial information of the subject on the AF imaging element 102. The focusing lens 302 is provided separately. In other words, the camera unit for shooting composed of the photographing lens 301 and the image sensor for photographing 103 and the camera unit for autofocus composed of the autofocus lens 302 and the image sensor for AF 102 are configured separately. It is a TV camera equipped with an autofocus device.
[0039]
In this configuration, the focal movements of the photographing lens 301 and the autofocus lens 302 are interlocked. When the focal position of the autofocus lens 302 is moved to the in-focus position of the lens 302, the photographing lens 301 is used. The characteristics of the photographic lens 301 and the autofocus lens 302 are set so that the focal position of the lens 301 is also the in-focus position of the lens 301, and the photographic imaging element 103 and AF imaging corresponding to each lens are set. The element 102 is arranged.
[0040]
In the autofocus device shown in FIG. 3B, the light is emitted from the photographing lens 301 by the semi-transmissive mirror 303 disposed between the photographing lens 301 and the photographing image sensor 103 that form the optical system of the television camera. In this configuration, the optical path of the separated light beam (image) is separated, one separated light beam is incident on the image sensor for photographing 103, and the other light beam is incident on the image sensor for AF 102. That is, the television camera is provided with an autofocus device that uses a single optical system that is relatively large and heavy.
[0041]
In this configuration, for example, the distance that is reflected by the semi-transmissive mirror 303 and reaches the incident surface of the AF image sensor 102 is equal to the distance that passes through the semi-transmissive mirror 303 and reaches the incident surface of the image sensor 103. In addition, an AF imaging element 102 and a photographing imaging element 103 are arranged.
[0042]
In addition, the spatial information of the subject reproduced on the AF imaging element 102, that is, the image, and the spatial information of the subject reproduced on the imaging imaging element 103, that is, the image, are reproduced with the top and bottom reversed. . Therefore, in the present embodiment, for example, the imaging image sensor 103 and the AF imaging element 102 are arranged such that the upper part of the spatial information of the subject is the reading start position of the AF imaging element 102 and the imaging image sensor 103. Is placed.
[0043]
It should be noted that the above-described deviation between the imaging element 103 for imaging and the imaging element 102 for AF, that is, a deviation in the rotational direction around the optical axis and a deviation in a direction parallel to the imaging surface of each of the imaging elements 102 and 103. On the other hand, it goes without saying that the image can be corrected by a known image correction or the like.
[0044]
FIG. 4 is a diagram for explaining the detection range of the focus evaluation value in the autofocus device according to the present embodiment. However, FIG. 4A is a diagram (side view) for explaining the positional relationship between the autofocus imaging device and the imaging sensor, and FIG. 4B is an autofocus imaging device and imaging. It is a figure (front view) for demonstrating the detection possible area | region of the focus evaluation in an image sensor.
[0045]
In FIG. 4, dn indicates the near subject-side focal depth from the in-focus position, and df indicates the far subject-side focal depth. In the following description, the depth of focus is a position where a circle of confusion determined by the F value of the lens, the focal length, and the subject distance is equivalent to the image size of the image sensor.
[0046]
As shown in FIG. 4A, when the angle formed by the AF image sensor 102 and the image sensor 103 is α, there is no difference in the high frequency component of the image inside the depth of focus. In-focus evaluation values cannot be obtained. Therefore, the range in which the focus evaluation value can be detected is a region that is separated from the intersection position between the AF image sensor 102 and the image sensor 103 by a focal depth or more. Since the focal depth in the first region 107 is Ln = dn / tanα, the region 402 excluding the region 401 from the intersection position of the imaging elements 102 and 103 to the focal depth Ln shown in FIG. This is the detection range of the focus evaluation value in the first area 107. Similarly, since the depth of focus in the second region 108 is Lf = df / tanα, the region 404 excluding the region 403 from the intersection position of the imaging elements 102 and 103 shown in FIG. 4B to the depth of focus Lf. Is the detection range of the focus evaluation value in the second region 108.
[0047]
As described above, in the imaging device using the autofocus device of the present embodiment, the AF imaging device 102 is incident light, that is, a lens, among the imaging devices that convert an optical image of a subject to a video signal. 101 is inclined with respect to the optical axis 106. In particular, by arranging the AF image sensor 102 to be inclined with respect to the image sensor 103 for imaging arranged in parallel with the orthogonal plane orthogonal to the optical axis 106, the input surface and the optical axis of the AF image sensor 102 are arranged. Each pixel of the AF image sensor 106 is divided into two regions (a first region 107 and a second region 108), with the intersecting line between the orthogonal plane at the position where the image sensor 106 intersects and the AF image sensor 106 as a boundary. Divided pixel area). At this time, in the case where the lower end of the AF image sensor 106 is inclined so as to be close to the lens 101, the first area 107 of the AF image sensor 102 is close to the lens 101, and the second area 108 is the lens. It is far from 101. Needless to say, when the tilt direction of the AF image sensor 102 is reversed, the relationship between the first and second regions 107 and 108 and the lens 101 is also reversed.
[0048]
Therefore, even when a subject image for one frame is captured by the AF image sensor 102, the first area 107 is centered on the position where the input surface of the AF image sensor 102 and the optical axis 106 intersect. An image with the same effect as when the focal position is moved to the lens 101 side by a minute amount is obtained, and the same effect as when the focal position is moved far from the lens 101 by a minute amount in the second region. An image is obtained. As a result, even when the focus position is at the focus position, images at two different focus positions can be obtained without moving the focus position of the lens 101. Can be maintained, and the movement of the focal position from the in-focus position associated with the autofocus control can be prevented. Further, since images at two different focal positions can be obtained by one imaging, the focal position can be quickly set to the in-focus position even for a moving subject.
[0049]
Note that in this embodiment, the readout of video signals from the imaging imaging element 103 and the AF imaging element 102 is controlled so as to be read out in the same period, thereby shortening the calculation time required for focusing. However, the present invention is not limited to this, and the video signal is read from the AF image sensor 102 following the reading of the video signal from the image sensor 103, or vice versa. The signal may be read out. With such a configuration, in addition to the above-described effects, the HPF, the absolute value calculation unit, the correction unit, and the addition unit that constitute the focus determination unit 104 can be used for imaging. Since the element 103 and the AF image sensor can be shared, the circuit scale can be reduced when the focus determination means 104 is configured by hardware. To become. On the other hand, when the focus determination unit 104 is realized by a program that operates on a known information processing device such as a microcomputer, the burden on the information processing device can be reduced, so a relatively inexpensive information processing device is used. it can.
[0050]
In the present embodiment, the case where the AF imaging element 102 and the imaging imaging element 103 use the same size and the same image pitch is described. However, the present invention is not limited to this. By using an image sensor having the same number of pixels as that of the image sensor 103 and a small pixel pitch for the AF image sensor 102 that does not affect the output quality, the AF image sensor 102 and the AF image sensor 102 are related. Since the optical system can be miniaturized, the autofocus device can be miniaturized. In addition, the manufacturing cost can be reduced by using the small AF image sensor 102 and the optical system. Furthermore, it goes without saying that imaging elements having different incident areas may be used. For example, when a focus area smaller than the imaging area of the imaging element 103 is set in advance, by using the AF imaging element 103 having an imaging area sufficient to capture an image of the focus area, AF Since not only the image pickup element 102 but also the optical system related to the AF image pickup element 102 can be downsized, the autofocus device can be downsized. In addition, the manufacturing cost can be reduced by using the small AF image sensor 102 and the optical system.
[0051]
Further, in the present embodiment, by tilting the AF image sensor 102, an image in which the focal position is moved to the lens 101 side by a minute distance with respect to the photographing image sensor 103, and the focal position is a minute distance. However, the present invention is not limited to this, and the first area 107 and the second area 108 are set as two imaging areas, respectively. It goes without saying that the above-described effects can be obtained even in a configuration in which more image sensors are provided.
[0052]
Furthermore, in the present embodiment, the lens driving unit 105 drives the focus mechanism of the lens 101 based on the drive direction determination output from the focus determination unit 104 and moves the focus position by a preset amount. Although configured, it is not limited to this. For example, the focus determination means 104 is provided with means for calculating the difference between the focus evaluation values of the first and second areas 107 and 108 and the difference between the focus evaluation values of the first and second areas 107 and 108. A moving amount storing means for storing the moving amount of the lens 101 in accordance with the focusing amount, and the focusing mechanism determines the difference in the focusing evaluation value from the moving amount storing means based on the difference in the focusing evaluation value from the focusing determining means 104. By searching for the corresponding movement amount and moving the lens 101 in the movement direction from the searched movement amount and the in-focus determination means 104, the focal point of the lens 101 can be accurately and efficiently moved. Therefore, it is possible to shorten the time required for focusing and realize an efficient focusing operation. However, it goes without saying that the movement amount of the lens 101 according to the difference between the focus evaluation values of the first and second regions 107 and 108 may be calculated every time the focus evaluation value is obtained. Furthermore, by calculating the movement amount of the lens 101 in consideration of the F value, focal length, subject distance, etc. of the lens 101, the focal point movement of the lens 101 can be performed more accurately and efficiently. It is possible to realize an efficient focusing operation that further shortens the time required for focusing.
[0053]
The invention made by the present inventor has been specifically described based on the embodiment of the invention, but the invention is not limited to the embodiment of the invention and does not depart from the gist of the invention. Of course, various changes can be made.
[0054]
【The invention's effect】
The effects obtained by the representative ones of the inventions disclosed in the present application will be briefly described as follows.
(1) Since the image sensor for AF is inclined with respect to the orthogonal plane orthogonal to the optical axis of the incident light, an image when the focal position is moved by a minute amount with one image sensor. Can be obtained by one imaging. As a result, even when the focus position is at the focus position, the autofocus operation can be performed without moving the focus position.
(2) Since the autofocus operation can be performed with a simple configuration of only one AF image sensor, the configuration of the autofocus device can be simplified. As a result, the apparatus can be reduced in size and cost.
(3) Even when the conventional hill-climbing method is used for autofocus control, an autofocus operation based on an image at one focal position can be performed.
(4) Since the autofocus operation can be performed from one image, the processing related to the autofocus operation can be performed without time loss. As a result, even for a moving subject, the focal position can be quickly moved to the in-focus position.
[Brief description of the drawings]
FIG. 1 is a diagram for explaining a schematic configuration of an autofocus device according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining a focusing operation in the autofocus device according to the present embodiment;
FIG. 3 is a diagram for explaining an example of an arrangement of an AF image sensor and a shooting image sensor in the autofocus device according to the present embodiment;
FIG. 4 is a diagram for explaining a focus evaluation value detection range in the autofocus device according to the present embodiment;
[Explanation of symbols]
101 ... Lens 102 ... Autofocus imaging device
103 ... Image sensor for photographing 104 ... Focus determination means
105 ... Lens driving means 106 ... Optical axis
107 ... first region 108 ... second region
301 ... Lens for photographing 302 ... Lens for autofocus
303: Transflective mirror 401 ... Depth of focus area in the first area
402, 404 ... detectable range of focus evaluation value
403: Depth of focus area in the third area

Claims (2)

撮像された被写体の光学像を映像信号に変換するオートフォーカス用撮像素子と、前記オートフォーカス用撮像素子で得られる映像信号に基づいて、前記オートフォーカス用撮像素子に結像する前記被写体の光学像の鮮鋭度を示す合焦評価値を算出する評価値算出手段と、前記合焦評価値に基づいてレンズの焦点位置を調整し、撮像用撮像素子に前記被写体の光学像を結像する焦点調整手段とを有するオートフォーカス装置において、
前記オートフォーカス用撮像素子は入射光の光軸に直交する直交面に対して傾斜して配置され、前記評価値算出手段は前記オートフォーカス用撮像素子の入力面と光軸とが交差する位置における直交面と前記オートフォーカス用撮像素子との交線を境界として分割される分割画素領域毎の合焦評価値を算出する評価値算出手段を備え、前記焦点調整手段は前記分割画素領域毎の合焦評価値を比較する比較手段を備え
前記評価値算出手段は前記撮影用撮像素子の画素領域を前記オートフォーカス用撮像素子の分割画素領域に対応する領域に分割し、前記撮影用撮像素子の分割画素領域毎に合焦評価値を算出する手段と、前記撮影用撮像素子から算出された前記分割画素領域毎の合焦評価値に基づいて前記オートフォーカス用撮像素子の前記分割画素領域毎の合焦評価値を補正する補正手段とを備え、前記焦点調整手段は前記補正されたオートフォーカス用撮像素子の合焦評価値に基づいて、前記レンズの焦点位置を調整することを特徴とするオートフォーカス装置。
And autofocus imaging device for converting an optical image of the imaged object in a video signal, based on the image signal obtained by the autofocus imaging device, an optical image of the object to be imaged on the autofocus imaging element An evaluation value calculating means for calculating a focus evaluation value indicating the sharpness of the image, and a focus adjustment for adjusting the focal position of the lens based on the focus evaluation value and forming an optical image of the subject on the image pickup device for imaging An autofocus device having means,
The image sensor for autofocus is disposed to be inclined with respect to an orthogonal plane orthogonal to the optical axis of incident light, and the evaluation value calculating means is at a position where the input surface of the image sensor for autofocus and the optical axis intersect. and a evaluation value calculating means for calculating an orthogonal plane to the focus evaluation value of the divided pixel each region where the intersection of the autofocus image sensor is divided as a boundary, the focus adjusting means of the divided pixel each region Comparing means for comparing the focus evaluation values ,
The evaluation value calculation unit divides the pixel area of the imaging element for imaging into areas corresponding to the divided pixel areas of the imaging element for autofocus, and calculates a focus evaluation value for each divided pixel area of the imaging element for imaging. And means for correcting the focus evaluation value for each of the divided pixel regions of the image sensor for autofocus based on the focus evaluation value for each of the divided pixel regions calculated from the image pickup device for photographing. And the focus adjusting means adjusts the focal position of the lens based on the corrected focus evaluation value of the image sensor for autofocus.
撮像された被写体の光学像を映像信号に変換するオートフォーカス用撮像素子と、前記オートフォーカス用撮像素子で得られる映像信号に基づいて、前記オートフォーカス用撮像素子に結像する前記被写体の光学像の鮮鋭度を示す合焦評価値を算出する評価値算出手段と、前記合焦評価値に基づいてレンズの焦点位置を調整し、撮影用撮像素子に前記被写体の光学像を結像する焦点調整手段とからなるオートフォーカス装置を有する撮像装置において、
前記オートフォーカス用撮像素子は入射光の光軸に直交する直交面に対して傾斜して配置され、前記評価値算出手段は前記オートフォーカス用撮像素子の入力面と光軸とが交差する位置における直交面と前記オートフォーカス用撮像素子との交線を境界として分割される分割画素領域毎の合焦評価値を算出する手段とを備え、前記焦点調整手段は前記分割画素領域毎の合焦評価値を比較する比較手段を備え
前記評価値算出手段は前記撮影用撮像素子の画素領域を前記オートフォーカス用撮像素子の分割画素領域に対応する領域に分割し、前記撮影用撮像素子の分割画素領域毎に合焦評価値を算出する手段と、前記撮影用撮像素子から算出された前記分割画素領域毎の合焦評価値に基づいて前記オートフォーカス用撮像素子の前記分割画素領域毎の合焦評価値を補正する補正手段とを備え、前記焦点調整手段は前記補正されたオートフォーカス用撮像素子の合焦評価値に基づいて、前記レンズの焦点位置を調整することを特徴とする撮像装置。
An autofocus imaging device that converts a captured optical image of a subject into a video signal, and an optical image of the subject that forms an image on the autofocus imaging device based on a video signal obtained by the autofocus imaging device An evaluation value calculation means for calculating a focus evaluation value indicating the sharpness of the image, and a focus adjustment for adjusting the focal position of the lens based on the focus evaluation value and forming an optical image of the subject on the image pickup device for photographing In an imaging device having an autofocus device comprising:
The image sensor for autofocus is disposed to be inclined with respect to an orthogonal plane orthogonal to the optical axis of incident light, and the evaluation value calculating means is at a position where the input surface of the image sensor for autofocus and the optical axis intersect. Means for calculating a focus evaluation value for each divided pixel region that is divided with an intersecting line between the orthogonal plane and the image sensor for autofocus as a boundary, and the focus adjustment unit performs focus evaluation for each divided pixel region. Comparing means for comparing values ,
The evaluation value calculation unit divides the pixel area of the imaging element for imaging into areas corresponding to the divided pixel areas of the imaging element for autofocus, and calculates a focus evaluation value for each divided pixel area of the imaging element for imaging. And means for correcting the focus evaluation value for each of the divided pixel regions of the image sensor for autofocus based on the focus evaluation value for each of the divided pixel regions calculated from the image pickup device for photographing. And the focus adjusting means adjusts the focal position of the lens based on the corrected focus evaluation value of the image sensor for autofocus .
JP2001175013A 2001-06-11 2001-06-11 Autofocus device and imaging device using the same Expired - Fee Related JP4334784B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001175013A JP4334784B2 (en) 2001-06-11 2001-06-11 Autofocus device and imaging device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001175013A JP4334784B2 (en) 2001-06-11 2001-06-11 Autofocus device and imaging device using the same

Publications (2)

Publication Number Publication Date
JP2002365524A JP2002365524A (en) 2002-12-18
JP4334784B2 true JP4334784B2 (en) 2009-09-30

Family

ID=19016221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001175013A Expired - Fee Related JP4334784B2 (en) 2001-06-11 2001-06-11 Autofocus device and imaging device using the same

Country Status (1)

Country Link
JP (1) JP4334784B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7813579B2 (en) 2004-05-24 2010-10-12 Hamamatsu Photonics K.K. Microscope system
JP5211949B2 (en) * 2008-09-04 2013-06-12 富士通株式会社 Focus adjustment apparatus, focus adjustment method, and focus adjustment program
JP2010256724A (en) * 2009-04-27 2010-11-11 Olympus Corp Observation device
WO2011080670A1 (en) 2009-12-30 2011-07-07 Koninklijke Philips Electronics N.V. Sensor for microscopy.
US9578227B2 (en) 2010-06-24 2017-02-21 Koninklijke Philips N.V. Determining a polar error signal of a focus position of an autofocus imaging system
US10298833B2 (en) 2011-12-19 2019-05-21 Hamamatsu Photonics K.K. Image capturing apparatus and focusing method thereof
US9860437B2 (en) 2011-12-19 2018-01-02 Hamamatsu Photonics K.K. Image capturing apparatus and focusing method thereof
WO2014112083A1 (en) 2013-01-17 2014-07-24 浜松ホトニクス株式会社 Image acquisition device and focus method for image acquisition device
DK3333608T3 (en) 2013-01-17 2021-04-12 Hamamatsu Photonics Kk IMAGE CATCHING DEVICE AND METHOD FOR FOCUSING IT
JP6023012B2 (en) * 2013-06-26 2016-11-09 浜松ホトニクス株式会社 Image acquisition device and focus method of image acquisition device
JP6985506B2 (en) * 2017-09-29 2021-12-22 ライカ バイオシステムズ イメージング インコーポレイテッドLeica Biosystems Imaging, Inc. Real-time autofocus focusing algorithm
CN112312120A (en) * 2019-07-30 2021-02-02 深圳光启空间技术有限公司 Automatic adjusting system and method for camera focal plane

Also Published As

Publication number Publication date
JP2002365524A (en) 2002-12-18

Similar Documents

Publication Publication Date Title
US8018524B2 (en) Image-pickup method and apparatus having contrast and phase difference forcusing methods wherein a contrast evaluation area is changed based on phase difference detection areas
JP5211714B2 (en) Imaging device
US20130314564A1 (en) Image capturing apparatus and image processing method
JP4334784B2 (en) Autofocus device and imaging device using the same
JP7271188B2 (en) Control device, imaging device, control method, and program
JPH05257062A (en) Automatic focusing device
EP1571477A2 (en) Focus detecting system
JP2010243843A (en) Autofocus system
JP2002372661A (en) Photographic lens
JP2002027305A (en) Image pickup system and its control method
US8582016B2 (en) Photographing apparatus and focus detecting method using the same
JP3412713B2 (en) Focus adjustment method
JP4032877B2 (en) Auto focus system
JP2004038114A (en) Auto-focus camera
JP4546781B2 (en) Imaging apparatus and color misregistration correction program
JP4865275B2 (en) Focus detection apparatus and imaging apparatus
JP2603212B2 (en) Automatic tracking device in camera
JP4038103B2 (en) Auto focus camera
JPH07143388A (en) Video camera
JP2009109792A (en) Autofocusing device and camera using it
JP5597942B2 (en) Electronic camera
JP2008028591A (en) Image processing method in imaging device, and imaging device
JP2004151608A (en) Autofocus system
US8363154B2 (en) Focus error adjusting apparatus and method in digital image processing device
JP2005140851A (en) Autofocus camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090602

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090624

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130703

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140703

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees