JP2014174362A - レンズ装置及びそれを有する撮影装置 - Google Patents

レンズ装置及びそれを有する撮影装置 Download PDF

Info

Publication number
JP2014174362A
JP2014174362A JP2013047587A JP2013047587A JP2014174362A JP 2014174362 A JP2014174362 A JP 2014174362A JP 2013047587 A JP2013047587 A JP 2013047587A JP 2013047587 A JP2013047587 A JP 2013047587A JP 2014174362 A JP2014174362 A JP 2014174362A
Authority
JP
Japan
Prior art keywords
focus
lens
tracking data
zoom lens
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013047587A
Other languages
English (en)
Other versions
JP6166555B2 (ja
Inventor
Shunsuke Miyajima
俊輔 宮嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013047587A priority Critical patent/JP6166555B2/ja
Publication of JP2014174362A publication Critical patent/JP2014174362A/ja
Application granted granted Critical
Publication of JP6166555B2 publication Critical patent/JP6166555B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Lens Barrels (AREA)

Abstract

【課題】 リアフォーカス式ズームレンズ装置において、不必要な加減速を発生させることのないトラッキングカーブを提供する。
【解決手段】 レンズ装置は、ズームレンズと、フォーカスレンズと、絞りと、を有する光学系と、前記ズームレンズの位置を検出するズームレンズ位置検出手段と、前記フォーカスレンズの位置を検出するフォーカスレンズ位置検出手段と、前記絞りの状態を検出する絞り検出手段と、前記絞りの状態に基づいて前記光学系の焦点深度を算出する焦点深度算出手段と、前記光学系の結像位置が前記焦点深度内になるときの、所定の物体距離における前記ズームレンズの位置と前記フォーカスレンズの位置の関係であるトラッキングデータを算出するトラッキングデータ算出手段と、該トラッキングデータを記憶する記憶手段と、を有する。
【選択図】 図1

Description

本発明は、テレビカメラやビデオカメラ等に使用されるレンズ装置に関し、特にリアフォーカス式のレンズ装置及びそれを有する撮影装置に関するものである。
従来、リアフォーカス式のズームレンズ装置において、ズームレンズの駆動に合わせて、所定の被写体に対して合焦状態を維持し続けるようにフォーカスレンズの駆動を制御するトラッキング動作が行われるものが多い。また、物体距離をパラメータとしてズームレンズ位置に対するフォーカスレンズ位置を示したトラッキングカーブについて、設計値とレンズの個体差を含めた実測値との公差を埋めるための補正技術として様々な提案がなされている。
特許文献1には、製造上のばらつきに起因する、トラッキングカーブの設計値と実測値のずれを補正するために2次の近似式を用い、ズームレンズ位置におけるフォーカスレンズ位置の補正量を算出する方法が開示されている。
特開平6−141220号公報
しかしながら、特許文献1では、補正されたトラッキングカーブでは焦点深度について考慮されていないため、補正されたトラッキングカーブでは結像位置が必ずしも焦点深度内に収まるとは限らず、トラッキング動作を行った場合、ピントが合わない可能性がある。一方、他の補正手段として、実測した合焦位置を結んでトラッキングカーブを補正することが考えられる。この場合、メカ的な公差や光学的な誤差によりズームレンズ位置と補正量の関係が単調変化するとは限らない。即ち、ズーム軸方向に対して、補正値が滑らかな変化を与えるような値とはならず、不連続な値をとる可能性がある。また、トラッキングカーブの精度を上げるために補正点を多くすると、補正値がより短周期で変動する値となり、短周期で頻繁に補正値の変化率が変わるような値を取る可能性が高い。この結果、ズームレンズの駆動速度が一定であっても、フォーカスレンズの駆動目標位置の変化量が頻繁に変化するため不必要な加減速を行い、振動、騒音が発生する可能性がある。
図15の実線は、ある物体距離における設計値のトラッキングカーブを示し、縦軸はフォーカスレンズ位置、横軸はズームレンズ位置、黒点は各ズームレンズ位置に対する合焦位置、破線は各合焦位置を繋ぎ作成した合焦トラッキングカーブを表す。
ここで、ズームレンズが位置P1501から位置P1509まで一定速度で駆動した場合を考える。フォーカスレンズは破線の合焦トラッキングカーブに基づいて駆動するが、位置P1501から位置P1502の区間で駆動する速度と位置P1502から位置P1503の区間で駆動する速度が異なる。前述のように区間ごとでフォーカスレンズの駆動速度が異なる原因は、横軸方向に対して、フォーカスレンズの補正値が頻繁に変化する変化率での値を取るためである。このため、ズームレンズを一定速度で駆動した場合、フォーカスレンズはこれに応じた加減速を行い、振動、騒音が発生する。
そこで本発明の目的は、トラッキング動作時のフォーカスレンズの不必要な加減速を低減し、振動、騒音を低減させたレンズ装置を提供することである。
上記目的を達成するために、本発明のレンズ装置は、ズームレンズと、フォーカスレンズと、絞りと、を有する光学系と、前記ズームレンズの位置を検出するズームレンズ位置検出手段と、前記フォーカスレンズの位置を検出するフォーカスレンズ位置検出手段と、前記絞りの状態を検出する絞り検出手段と、
前記絞りの状態に基づいて前記光学系の焦点深度を算出する焦点深度算出手段と、前記光学系の結像位置が前記焦点深度内になるときの、所定の物体距離における前記ズームレンズの位置と前記フォーカスレンズの位置の関係であるトラッキングデータを算出するトラッキングデータ算出手段と、該トラッキングデータを記憶する記憶手段とを有することを特徴とする。
本発明によれば、トラッキング動作時のフォーカスレンズの不必要な加減速を低減し、振動、騒音を低減させることが可能となる。
実施例1のレンズ装置の構成図 実施例1のレンズ装置における補正値算出のフローチャート 実施例1のレンズ装置における合焦位置取得のフローチャート 実施例1のレンズ装置におけるトラッキングカーブ 実施例2のレンズ装置におけるトラッキングカーブの領域分割例 実施例2のレンズ装置におけるトラッキングカーブの繋ぎ目補正 実施例2のレンズ装置の構成図 実施例2のレンズ装置の補正値算出の全体フローチャート 実施例2のレンズ装置の各領域補正値算出のフローチャート 実施例2のレンズ装置の繋ぎ目補正値算出のフローチャート トラッキング動作中の補正値 実施例3のレンズ装置の構成図 実施例3のレンズ装置における各領域補正値算出のフローチャート 実施例3のレンズ装置におけるトラッキング動作のフローチャート トラッキングカーブの従来例
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。
本実施例におけるズームレンズ装置の構成を図1に示す。以下の説明では、本発明を分かりやすくするために本発明の主要な部位のみ図示し、本発明の特徴部ではない部位は省略した。
本発明のズームレンズ装置100は、ズームレンズ101、フォーカスレンズ105、可動絞り109を含む光学系を有する。
ズームレンズ101は、光軸方向に移動してズームレンズ装置100の焦点距離を変化させる。ズームレンズ101は、ズームドライバ103によって駆動されるズームモータ102によって光軸方向に移動する。ズームレンズ101の位置は、ズームレンズ位置検出手段104によって検出される。
フォーカスレンズ105は光軸方向に移動してズームレンズ装置100の結像位置を変化させる。フォーカスレンズ105は、フォーカスドライバ107によって駆動されるフォーカスモータ106によって、光軸方向に移動する。フォーカスレンズ105の位置は、フォーカスレンズ位置検出手段108によって検出される。
可動絞り109は、光量を調整する。可動絞り109には、アイリスモータ110が接続されている。アイリスモータ110はアイリスドライバ111によって駆動され、可動絞り109を駆動させる。可動絞り109の位置は、アイリス位置検出手段112によって検出される。
制御部113は、例えばマイコンであり、ズームレンズ101、フォーカスレンズ105、可動絞り109の駆動を制御する。合焦位置取得手段114は、ズームレンズ位置におけるフォーカスレンズ105の合焦位置を取得する。焦点深度算出手段115は、アイリス位置検出手段112及び、既知の許容錯乱円に基づいて、焦点深度を算出する。記憶手段116は、例えばフラッシュメモリであり、後述する近似式やトラッキングカーブ等の情報を記憶する。
トラッキングデータ算出手段117は、各物体距離においてズームレンズ位置、合焦位置及び、焦点深度に基づいて、トラッキングカーブを算出する。
ズームレンズ装置100は不図示の撮像装置と接続して撮影装置を構成することが可能であり、ズームレンズ装置100からの被写体光を該撮像装置で撮像し、被写体像を得ることができる。
以上、説明した構成を有する本発明の実施例1のズームレンズ装置における、補正値算出のフローチャートを図2に、焦位置取得のフローチャートを図3に、及び、トラッキングカーブを図4に示す。以下、図2乃至4を参照しながら、本発明の実施例1のズームレンズ装置を詳細に説明する。
図2に実施例1の制御部113における補正値算出のフローチャートを示す。
まず、ステップS200では、ある物体距離において合焦度合いを示す映像評価値に基づいて各ズームレンズ位置に対応するフォーカスレンズの合焦位置を算出する。ステップS200の詳細については図3を使用して後述する。
ステップS201では、ズームレンズ位置に基づくサンプル点のサンプル番号を示す変数nを0で初期化する。本発明では、広角端を0とする。
ステップS202では、トラッキングカーブを算出するために使用する式を記憶手段116から読み込む。例えば、式(1)のような2次の多項近似式を用いる。
Y[n]=aX[n] 2+bX[n]+c ・・・・・(1)
ここで、Y[n]はサンプル番号nにおける仮補正値、X[n]はサンプル番号nにおけるズームレンズ位置、a、b、cは例えば最小二乗法を用いて算出される定数である。
ステップS203では、ステップS200の合焦位置取得処理にて算出したサンプル点nにおける焦点深度[n]を記憶手段116から読み込む。
ステップS204では、ステップS200の合焦位置取得処理にて取得したサンプル点nにおける合焦位置[n]を記憶手段116から読み込む。
ステップS205では、ステップS202にて読み込んだ式から仮補正値[n]を算出する。
ステップS206では、ステップS204にて読み込んだ合焦位置[n]とステップS205にて算出した仮補正値[n]の差分の絶対値がステップS203にて読み込んだ焦点深度[n]の半分つまり片側焦点深度以下か判定する。差分の絶対値が片側焦点深度より大きい場合は、ステップS207へ進む。一方、差分の絶対値が片側焦点深度以下の場合は、ステップS208へ進む。
ステップS207では、式(2)を使用して補正値[n]を書き換える。
Off[n]=Bp[n]+δ/2 ・・・・・(2)
式(2)のOff[n]は補正値[n]、Bp[n]は合焦位置[n]、δ/2は焦点深度[n]の半分つまり片側焦点深度を表す。また、δの符号は合焦位置[n]より仮補正値[n]が小さい側、つまり後方側(像側)の場合を負とする。
ステップS208では、補正値[n]に仮補正値[n]を代入する。
ステップS209では、望遠端まで、つまり全サンプル点について処理を行ったか判定する。全サンプル点について処理を行った場合は、処理を終了する。一方、全サンプル点について処理を行っていない場合はステップS210へ進む。
ステップS210では、サンプル番号nをインクリメントし、ステップS203へ進み一連の処理を繰り返す。
以上、一連の流れで合焦位置を焦点深度内に収まる範囲で調整して比較的連続的なトラッキングカーブになるように設定する。
次に、図2のステップS200における制御部113の合焦位置取得処理について図3を使用して説明する。
まず、ステップS300では、可動絞り109を開放位置に駆動する。この状態でトラッキングカーブを作成することにより、合焦に対しては最も厳しい絞りの条件(焦点深度の条件)でトラッキングデータの作成が行われることになる。
ステップS301では、アイリス位置検出手段112から可動絞り位置を取得する。
ステップS302では、ズームレンズ101を広角端に駆動する。
ステップS303では、サンプル点のサンプル番号を示す変数nを0で初期化する。
ステップS304では、ステップS301にて取得した可動絞り位置及び、既知の許容錯乱円から焦点深度を算出する。焦点深度の具体的な計算方法は公知なので説明を省略する。
ステップS305では、ズームレンズ位置検出手段104からズームレンズ位置を取得する。
ステップS306では、合焦位置を探索する。具体的にはフォーカスレンズ105をある駆動量で全域を駆動し、合焦度合いを示す映像評価値が最も高い値を示すフォーカスレンズ位置を合焦位置とする。映像評価値は例えばレンズ装置100の外部から取得する。
ステップS307では、ステップS306にて探索した合焦位置を取得する。
ステップS308では、ステップS307にて取得した合焦位置[n]を記憶する。
ステップS309では、ステップS304にて算出した焦点深度を焦点深度[n]として記憶する。
ステップS310では、ズームレンズ101が望遠端つまり、全サンプル点に駆動したか判定する。ズームレンズ101が望遠端の場合、合焦位置取得処理を終了する。一方、ズームレンズ101が望遠端でない場合、ステップS311へ進む。
ステップS311では、サンプル番号nをインクリメントする。
ステップS312では、サンプル番号nが示すサンプル点のズームレンズ位置にズームレンズ101を駆動し、ステップS305へ進み、一連の処理を繰り返す。
以上、一連の流れで各ズームレンズ位置に対応する合焦位置を算出する。
ここで、図4に実施例1を適用したトラッキングカーブを示す。
図4は、図15と同様な設計値のトラッキングカーブ(設計トラッキングデータ)及び、図3に示した合焦位置取得のフローで得られた各ズームレンズ位置における合焦位置を繋いだ合焦トラッキングカーブを示す。図中、縦軸にフォーカスレンズ位置、横軸にズームレンズ位置、黒点は各合焦位置、黒点の上下に位置する二重線は焦点深度の範囲、太い実線は本発明を適用したトラッキングカーブを表す。設計上でのトラッキンデータ(設計トラッキンデータ)と実際に測定された合焦位置は、製造公差や使用されている環境の条件(温度等)等による個体差に起因するズレがあるため、図4に示すように、設計トラッキングデータは必ずしも最適なトラッキングデータを与えるとは限らない。ここで、ズームレンズが位置P401から位置P409まで一定速度で駆動した場合を考える。破線の合焦トラッキングカーブでは、位置P401から位置P402の区間の傾きと位置P402から位置P403の区間の傾きが異なる。つまり、位置P401から位置P403の区間で、フォーカスレンズ105には加減速が発生する。しかし、本発明を適用した太い実線のトラッキングカーブでは、位置P401から位置P402の区間の傾きと位置P402から位置P403の区間の傾きが略一致することが分かる。つまり、位置P401から位置P403の区間で、フォーカスレンズ105の加減速を抑えることが可能となる。よってフォーカスレンズ105の加減速を低減できるので振動、騒音を抑えることが可能となる。また、トラッキングカーブが急な加減速を必要としないフォーカスレンズの位置の値となるのでフォーカスレンズ105の移動の立ち上がりが改善され、追従性を向上させることが可能となる。
本実施例では、焦点深度を算出する例を説明したが、これに限らず、テーブル等から読み出しても本発明の効果を得ることができる。また、焦点深度を用いて説明を行ったが、被写界深度を用いても本発明の効果を得ることができる。また、本実施例では、ステップS304にて一度算出した焦点深度を繰り返し使用しているが、Fドロップを考慮して焦点距離ごとに絞りの開放位置を決めて、焦点深度をズームレンズ位置ごとに算出しても本発明の効果を得ることができる。
本実施例では、映像評価値が最も高いフォーカスレンズ位置を合焦位置としたが、任意に設定した閾値以上の映像評価値が得られたフォーカスレンズ位置を合焦位置としても本発明の効果を得ることができる。
合焦位置取得フローチャートにおいては、ズームレンズを広角端から望遠側に駆動して合焦位置を探索したが、望遠端から広角側に駆動して合焦位置を探索しても本発明の効果を得ることができる。更に、望遠端から広角側及び、広角端から望遠側の二通りについてそれぞれ合焦位置を算出し、それぞれ補正値を算出して平均値を求めても本発明の効果を得ることができる。
本実施例では、サンプル番号nは広角端の時を0としたが、各サンプル点を区別することができればこれに限らない。例えば、望遠端の時を0としても本発明の効果を得ることができる。
本実施例では、図4のトラッキングカーブに対して(至り値0)を像側、上方を物体側の焦点深度としたが、下方を物体側、上方を像側としても本発明の効果を得ることができる。
本実施例では、式(1)は2次の多項近似式としたが、次数を任意に変更しても本発明の効果を得ることができる。更に多項近似式以外の近似式、例えば、指数近似曲線や2区間移動平均等を使用しても本発明の効果を得ることができる。
また、本実施例で例示した方法では、実測の合焦点から、トラッキングカーブを2次の多項近似式の係数を決定し、焦点深度を考慮してトラッキングカーブを決定したが、本発明はこれに限定されることはない。トラッキングカーブを、結像位置が焦点深度内に収まる範囲で連続的な値となるように算出できればこれに限らない。例えば、設計トラッキングカーブを予め記憶手段116(設計データ記憶手段)に記憶させておき、各ズームレンズの位置において、実測された合焦位置と設計トラッキングカーブとの差分の平均値を算出する。設計トラッキングカーブを算出された平均値分だけ並行移動させ、各サンプル点(各ズームレンズ位置)にて結像位置が焦点深度内に収まる場合は、設計トラッキングカーブを並行移動して得られた値を補正値[n]としても本発明の効果を得ることができる。
本実施例では、式(1)は予め記憶手段116に記憶するとしたが、記憶手段116に複数のトラッキングカーブ算出方法を用意し、全域の合焦位置の関係性から算出方法を選択しても本発明の効果を得ることができる。
本実施例では、制御部113にトラッキングデータ算出手段117を構成したが、制御部113とレンズ装置100の外部に、例えばPCと接続し、PCにトラッキングデータ算出手段117を設けて補正値[n]を計算しても本発明の効果を得ることができる。
これらは以降の実施例でも同様である。
第2の実施例に係るズームレンズ装置について説明する。本実施例のズームレンズ装置の基本的な構成は、図1に記載した第1の実施例の構成と同様であるので説明は省略する。
第1の実施例に対する本実施例のズームレンズ装置の最も特徴的な部分は、ズームレンズ101の駆動範囲全域を領域に分割してトラッキングカーブを算出することにある。図5の実線は、設計値のトラッキングカーブを示し、縦軸にフォーカスレンズ位置、横軸にズームレンズ位置、黒点は各ズームレンズ位置に対応する合焦位置、破線は合焦位置を繋いだ合焦トラッキングカーブを表す。図中、位置P501から位置P503を領域1、位置P504から位置P506を領域2、位置P507から位置P509を領域3と定義する。領域1、領域2及び、領域3ではそれぞれ黒点が示す合焦位置にばらつきがあり、図5に示した例では、広角側ではばらつきが小さく、望遠側ではばらつきが大きい傾向がある。そこで、領域ごとに結像位置が焦点深度内に収まる範囲でフォーカスレンズの位置の変化率の変化をより効果的に抑制するようにトラッキングカーブを算出することで、分割した領域ごとのばらつきの特性を反映したより適切なトラッキングカーブを得ることができる。すなわち、ばらつきが小さい領域のデータは、その領域内でトラッキングデータを演算することで、ばらつきが大きい領域のデータのばらつきの影響を受けることなく演算することができる。逆に、ばらつきが大きい領域のデータは、その領域内でトラッキングデータを演算することで、ばらつきが小さい領域のデータのばらつきの影響を受けてばらつきの補正が過小となることも避けることができる。ここで、位置P503と位置P504は異なる領域でトラッキングカーブを算出するので、位置P503から位置P504へフォーカスレンズ105を駆動すると変化量が大きくなってしまう場合がある。そこで、位置P503と位置P504のような領域と領域の繋ぎ目においては、図5中の傾きで表される、フォーカスレンズ位置のズームレンズ位置に対する変化率が、領域Iと領域IIと継ぎ目とにおいてその変化が小さくなるように、継ぎ目近傍のトラッキングカーブのデータを調整する。図6を使用して領域と領域の繋ぎ目の調整方法を説明する。図6の破線は、領域1及び領域2において焦点深度内に収まる範囲で算出されたトラッキングカーブを示し、縦軸にフォーカスレンズ位置、横軸にズームレンズ位置を表す。また、黒点は各ズームレンズ位置に対応するフォーカスレンズ位置、星点は位置P503及び、位置P504ごとにおいて調整されたフォーカスレンズ位置、実線は領域1と領域2の繋ぎ目を調整した後のトラッキングカーブを表す。ズームレンズ位置P503及びP504における調整点である星点の算出は、継ぎ目のズームレンズ位置である、P503及びP504から、それぞれ領域I、領域IIの中側の1点同士(P502とP505)を結ぶ直線で、継ぎ目のズームレンズ位置P503、P504の調整点を内挿して求めることができる。ただし、結像位置が焦点深度内に収まるように調整点を設定する。
以下の説明では、本発明を分かりやすくするために本発明の主要な部位のみ図示し、その他の部位の記載は省略した。
本実施例におけるズームレンズ装置の構成を図7に示す。図1に示す第1実施例と同様な構成については説明を省略し、第1実施例とは異なる部分について説明する。
領域分割手段700は、ズームレンズ101の駆動範囲全域を複数の領域に分割し、トランキングデータ算出手段がトラッキンデータを算出する対象となる領域を設定する。
以上、説明した構成において図8に示した第2の実施例の全体フローチャート、図9に示した第2の実施例2の各領域補正値算出のフローチャート及び、図10に示した繋ぎ目補正値算出のフローチャートを使用して詳細に説明する。
図8に実施例2の全体フローチャートを示す。
まず、ステップS800では、ある物体距離において映像評価値に基づいて各ズームレンズ位置に対応するフォーカスレンズ位置を算出する。ステップS800は図2のステップS200と同様なので詳細の説明を省略する
ステップS801では、各領域補正値算出処理としてサンプル点に対して分割した領域ごとにトラッキングカーブを算出する処理を行う。
ステップS802では、繋ぎ目補正値算出処理として分割した領域と領域の繋ぎ目を調整する処理を行う。
次に図9を使用してステップS801各領域補正値算出処理について詳細に説明する。
本実施例では、図5に示す合焦位置、領域1乃至3、位置P501乃至P509に従って説明する。
まず、ステップS900では、サンプル点のサンプル番号を示す変数nを0で初期化する。
ステップS901では、サンプル点のサンプル番号を示す変数βに位置P503に対応するサンプル番号3を代入する。
ステップS902では、トラッキングカーブを算出する式を記憶手段116から読み込む。例えば式(1)とする。
ステップS903では、ステップS800合焦位置取得処理にて算出した焦点深度[n]を記憶手段116から読み込む。
ステップS904では、ステップS800合焦位置取得処理にて取得した合焦位置[n]を記憶手段116から読み込む。
ステップS905では、ステップS902にて読み込んだ式から仮補正値[n]を算出する。
ステップS906では、ステップS904にて読み込んだ合焦位置[n]とステップS905にて算出した仮補正値[n]の差分の絶対値がステップS903にて読み込んだ焦点深度[n]の半分つまり片側焦点深度以下か判定する。差分の絶対値が片側焦点深度より大きい場合は、ステップS907へ進む。一方、差分の絶対値が片側焦点深度以下の場合は、ステップS908へ進む。
ステップS907では、式(2)を使用して補正値[n]を書き換える。
ステップS908では、補正値[n]を仮補正値[n]に書き換える。
ステップS909では、サンプル番号nに1を足してインクリメントする。
ステップS910では、サンプル番号nがサンプル番号βより大きいか判断する。つまり、サンプル番号βまで処理を行ったか判定する。サンプル番号βまで処理を行った場合はステップS911へ進む。一方、サンプル番号βまで処理を行っていない場合は、ステップS903へ進み一連の処理を繰り返す。
ステップS911では、サンプル番号βが3であるか判定する。サンプル番号βが3の場合、ステップS912へ進む。一方、サンプル番号βが3ではない場合、ステップS913へ進む。
ステップS912では、サンプル番号βに位置P506に対応するサンプル番号6を代入し、ステップS902へ戻る。
ステップS913では、サンプル番号βが6であるか判定する。サンプル番号βが6の場合、ステップS914へ進む。一方、サンプル番号βが6ではない場合、各領域補正値算出処理を終了する。
ステップS914では、サンプル番号βに位置P509に対応するサンプル番号9を代入し、ステップS902へ戻る。
以上、一連の流れで領域ごとにトラッキングカーブを算出する。
次に、図10を参照しながらステップS802の繋ぎ目補正値算出処理について説明する。
まず、ステップS1000では、サンプル点のサンプル番号を示す変数βに位置P503に対応するサンプル番号3を代入する。
ステップS1001では、ズームレンズ位置P503及びP504からそれぞれ領域I、領域IIの中側の1点同士(P502とP505)を結ぶ直線を補正直線として求める。
ステップS1002では、求められた補正直線をもとに、ズームレンズ位置βと次のズームレンズ位置β+1における仮の調整値off1[β]、off1[β+1]を内挿して演算する。
ステップS1003では、式(3)、(4)によってズームレンズ位置βとβ+1における仮の調整値off1[β]、off1[β+1]と、補正値[β]であるoff[β]と補正値[β+1]であるoff[β+1]との差分diff1、diff2を算出する。
diff1 = off1[β] ― off[β] ・・・・・(3)
diff2 = off1[β+1] ― off[β+1] ・・・・・(4)
ステップS1004では、差分diff1の絶対値が焦点深度[β]の半分つまり片側焦点深度以下か判定する。差分diff1の絶対値が片側焦点深度以下の場合、ステップS1005へ進む。差分diff1の絶対値が片側焦点深度より大きい場合、ステップS1006へ進む。
ステップS1005では、調整値off1[β]を補正値[β]として補正値[β]を書き換える。
ステップS1006では、差分diff2の絶対値が焦点深度[β+1]の半分つまり片側焦点深度以下か判定する。差分diff2の絶対値が片側焦点深度以下の場合、ステップS1007へ進む。差分diff2の絶対値が片側焦点深度より大きい場合、ステップS1008へ進む。
ステップS1007では、調整値off1[β+1]を補正値[β+1]として補正値[β+1]を書き換える。
ステップS1008では、サンプル番号βが3であるか判定する。サンプル番号βが3の場合、ステップS1007へ進む。一方、サンプル番号βが3ではない場合、繋ぎ目補正値算出処理を終了する。
ステップS1007では、サンプル番号βに位置P506に対応するサンプル番号6を代入し、ステップS1001へ戻る。
以上、一連の流れで領域ごとにトラッキングカーブを算出することで、より精度の高いトラッキングカーブを算出することが可能となる。また、領域と領域の繋ぎ目のサンプル点を補正することで領域間でもフォーカスレンズの駆動速度に急激な変化を生じさせないトラッキングカーブを提供し、滑らかなフォーカスレンズ駆動を実現することができる。
本実施例では、領域は3つとしたが2つ以上の領域に分割してトラッキングカーブを算出すれば本発明の効果を得ることができる。また、予めサンプル点ごとに領域を決めていたが、合焦位置のばらつきに応じて適宜、各領域の範囲を変更しても本実施例の効果を得ることができる。
本実施例では、1つのサンプル点は1つの領域に属しているとしたが、1つのサンプル点が複数の領域に属しても本発明の効果を得ることができる。例えば、位置P504は領域1と領域2に属するとして領域1は位置P501から位置P504まででトラッキングカーブを算出する。その後、領域2は位置P504から位置P506まででトラッキングカーブを算出する。位置P504のフォーカスレンズ位置は領域1と領域2で算出した位置の平均としても良い。または、領域1にてトラッキングカーブ算出時に算出した位置を位置P504の合焦位置として領域2にてトラッキングカーブを算出しても良い。
これらは以降の実施例でも同様である。
第3の実施例に係るズームレンズ装置について説明する。
第1の実施例に対する本実施例のズームレンズ装置の最も特徴的な部分は、トラッキングカーブ算出時は可動絞りを開放状態としているが、実際の撮影で使用される時には、可動絞りが開放状態から絞られることに注目した点にある。可動絞りが開放状態の場合に比べ、絞った場合は焦点深度が深くなる。そこで、本実施例においては、トラッキングカーブ算出時にフォーカスレンズ位置を焦点深度の端としたサンプル点は、撮影時の結像位置が焦点深度内にあるときに、最も滑らかなトラッキングカーブを与えるフォーカスレンズ位置にフォーカスレンズを駆動する。図11の破線は、調整時に算出したトラッキングカーブの一部を示し、縦軸はフォーカスレンズ位置、横軸はズームレンズ位置、黒点は合焦位置、黒点の上下の二重線は黒点に対応する焦点深度、さらに上下の太線は撮影時の焦点深度を表す。破線で示すように、位置P1100のフォーカスレンズ位置は像側焦点深度となっている。太線で示す撮影時の焦点深度は、二重線で示すトラッキングカーブ算出時の焦点深度より大きくなっている。よって位置P1100では、星点をフォーカスレンズ位置としてトラッキング動作を行うことで、トラッキングカーブは実線となる。実線で示すトラッキングカーブは破線で示すトラッキングカーブに比べてフォーカスレンズ位置がより一様に変化するので、フォーカスレンズ駆動に起因する振動や騒音を低減することが可能なトラッキングカーブである。
以下の説明では、本発明を分かりやすくするために本発明の主要な部位のみ図示し、その他の部位の記載は省略した。
本実施例におけるズームレンズ装置の構成を図12に示す。図1に示す第1実施例、図7に示す実施例2と同様な構成については説明を省略し、第1実施例、第2実施例とは異なる部分について説明する。
補正検討手段1200(再補正手段)は、フォーカスレンズ目標位置がトラッキングカーブ算出時の焦点深度の端であるか判定し、端の場合は現在の焦点深度の範囲で連続的なトラッキングカーブとなるように目標位置を算出する。
トラッキング手段1201は、補正検討手段1200で決められたフォーカスレンズ目標位置に基づいてトラッキング動作を行う。
以上、説明した構成において図13に示した第3の実施例の各領域補正値算出のフローチャート及び、図14に示した第3の実施例のトラッキング動作のフローチャートを使用して詳細に説明する。
図13にトラッキングカーブを算出するフローチャートを示し、図9と同様な部分は説明を省略する。
図13の処理は、図3に示した合焦位置取得処理を実行後、実行される。
ステップS1300では、ステップS906にて仮補正値[n]が片側焦点深度内に収まらないと判定されたので、変数補正検討位置[n]としてサンプル点を記憶する。
以上、一連の流れからトラッキングカーブを算出する際に仮補正値が焦点深度内に収まらない場合に補正値を片側焦点深度としたサンプル点を記憶しておく。
図14に本発明のトラッキング動作時のフローチャートを示す。
まず、ステップS1400では、図13に示した第3の実施例の各領域補正値算出のフローチャートにて算出したトラッキングカーブを読み込む。
ステップS1401では、ズームレンズ位置検出手段104からズームレンズ位置を取得する。
ステップS1402では、フォーカスレンズ位置検出手段108からフォーカスレンズ位置を取得する。
ステップS1403では、可動絞り位置検出手段112から可動絞り位置を取得する。
ステップS1404では、ステップS1403にて取得した可動絞り位置及び、既知の許容錯乱円から焦点深度を算出する。
ステップS1405では、ステップS1400にて読み込んだトラッキングカーブ及び、ステップS1401にて取得したズームレンズ位置に基づいて補正値を取得する。
ステップS1406では、ステップS1401にて取得したズームレンズ位置がステップS1300にて記憶した補正検討位置か判定する。ズームレンズ位置が変数補正検討位置に記憶されている場合はステップS1407へ進む。一方、ズームレンズ位置が変数補正検討位置に記憶されていない場合はステップS1412へ進む。
ステップS1407では、ズームレンズ位置に対するフォーカスレンズ位置を算出するための式を記憶手段116から読み込む。例えば、式(1)とする。
ステップS1408では、ステップS1407にて読み込んだ式に基づいて仮補正値を算出する。
ステップS1409では、ステップS308にて記憶した合焦位置を読み込む。
ステップS1410では、ステップS1409にて読み込んだ合焦位置とステップS1408にて算出した仮補正値の差分の絶対値がステップS1404にて算出した焦点深度の半分つまり片側焦点深度以下か判定する。差分の絶対値が片側焦点深度より大きい場合は、ステップS1412へ進む。一方、差分の絶対値が片側焦点深度以下の場合は、ステップS1411へ進む。
ステップS1411では、ステップS1408にて算出した仮補正値を補正値に代入する。
ステップS1412では、補正値及び、ステップS1402にて取得したフォーカスレンズ位置からフォーカスレンズ目標位置を算出する。
ステップS1413では、ステップS1412にて算出したフォーカスレンズ目標位置に基づいてフォーカスレンズを駆動する。
以上、一連の流れでサンプル点の補正値が焦点深度の端に設定されている場合は、トラッキング動作時の可動絞り位置から算出した焦点深度に基づいて補正値を算出することで、より連続的なトラッキングカーブに基づいて駆動することが可能となる。よって、振動、騒音をより低減することが可能となる。
本実施例では、トラッキングカーブ算出時は領域を分割しているが、実施例1のように領域を分割しなくても本発明の効果を得ることができる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
100:レンズ装置
101:ズームレンズ
104:ズームレンズ位置検出手段
105:フォーカスレンズ
107:フォーカスレンズ駆動手段
108:フォーカスレンズ位置検出手段
109:可動絞り
112:アイリス位置検出手段(絞り検出手段)
115:焦点深度算出手段
116:記憶手段
117:トラッキングデータ算出手段
700:領域分割手段
1200:補正検討手段
1201:トラッキング手段

Claims (8)

  1. ズームレンズと、フォーカスレンズと、絞りと、を有する光学系と、
    前記ズームレンズの位置を検出するズームレンズ位置検出手段と、
    前記フォーカスレンズの位置を検出するフォーカスレンズ位置検出手段と、
    前記絞りの状態を検出する絞り検出手段と、
    前記絞りの状態に基づいて前記光学系の焦点深度を算出する焦点深度算出手段と、
    前記光学系の結像位置が前記焦点深度内になるときの、所定の物体距離における前記ズームレンズの位置と前記フォーカスレンズの位置の関係であるトラッキングデータを算出するトラッキングデータ算出手段と、
    該トラッキングデータを記憶する記憶手段と、
    を有することを特徴とするレンズ装置。
  2. 前記トラッキングデータ算出手段は、該ズームレンズの位置に対するフォーカスレンズの位置の変化量の変化が最小になるように前記トラッキングデータを算出することを特徴とする請求項1に記載のレンズ装置。
  3. 前記トラッキングデータ算出手段は、近似式に基づいてトラッキングデータを算出することを特徴とする請求項1または2に記載のレンズ装置。
  4. 前記ズームレンズの位置に対応する前記フォーカスレンズの位置を示す設計トラッキングデータを記憶する設計データ記憶手段を更に有し、
    前記トラッキングデータ算出手段は、前記設計トラッキングデータと、前記ズームレンズの位置において合焦する前記フォーカスレンズの位置と前記設計トラッキングデータが示すフォーカスレンズの位置の差分の平均値と、に基づいてトラッキングデータを算出する、
    ことを特徴とする請求項1または2に記載のレンズ装置。
  5. 前記トラッキングデータ算出手段は、任意の2つ以上のズームレンズの位置に対応する焦点深度内の任意の位置を結んだ曲線に基づいてトラッキングデータを算出することを特徴とする請求項1または2に記載のレンズ装置。
  6. 前記トラッキングデータ算出手段がトラッキングデータを算出する対象として、ズームレンズの位置を複数の領域に分割する領域分割手段と、
    該分割された領域から該領域の繋ぎ目にかけてのズームレンズ位置に対するフォーカスレンズ位置の変化率の変化が最小であり、かつ、該フォーカスレンズ位置が該焦点深度内に収まるように補正する繋ぎ目補正手段と、
    を有し、
    前記トラッキングデータ算出手段は、 前記領域分割手段が分割した領域ごとにトラッキングデータを算出する、
    ことを特徴とする請求項1乃至5のいずれか1項に記載のレンズ装置。
  7. 前記レンズ装置は、 前記絞りが開放状態で算出されたトラッキングデータに基づいてフォーカスレンズを駆動する際に、前記絞りが開放状態より絞られた場合、絞り値に応じた焦点深度を考慮して該ズームレンズ位置に対するフォーカスレンズ位置の変化率の変化がより小さくなるように再補正する再補正手段を有する、ことを特徴とする請求項1乃至6いずれか1項に記載のレンズ装置。
  8. 請求項1乃至7のいずれか1項に記載のレンズ装置と、該レンズ装置からの被写体光を撮像する撮像装置とを含む撮影装置。
JP2013047587A 2013-03-11 2013-03-11 レンズ装置及びそれを有する撮影装置 Active JP6166555B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013047587A JP6166555B2 (ja) 2013-03-11 2013-03-11 レンズ装置及びそれを有する撮影装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013047587A JP6166555B2 (ja) 2013-03-11 2013-03-11 レンズ装置及びそれを有する撮影装置

Publications (2)

Publication Number Publication Date
JP2014174362A true JP2014174362A (ja) 2014-09-22
JP6166555B2 JP6166555B2 (ja) 2017-07-19

Family

ID=51695627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013047587A Active JP6166555B2 (ja) 2013-03-11 2013-03-11 レンズ装置及びそれを有する撮影装置

Country Status (1)

Country Link
JP (1) JP6166555B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11467367B2 (en) 2018-03-23 2022-10-11 Fujifilm Corporation Imaging device, imaging method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0618762A (ja) * 1991-08-19 1994-01-28 Canon Inc カメラ
JP2001208948A (ja) * 2000-01-26 2001-08-03 Fuji Photo Film Co Ltd デジタルスチルカメラ、レンズ配置較正装置、レンズ配置較正方法、およびコンピュータ読み取り可能な記録媒体
JP2003270515A (ja) * 2002-03-19 2003-09-25 Ricoh Co Ltd 撮像装置
US20060120709A1 (en) * 2004-12-06 2006-06-08 Fumikazu Kobayashi Image device, control method for the imaging device, program for performing the control method, and recording medium recording the program
JP2013242356A (ja) * 2012-05-18 2013-12-05 Canon Inc レンズ鏡筒およびカメラシステム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0618762A (ja) * 1991-08-19 1994-01-28 Canon Inc カメラ
JP2001208948A (ja) * 2000-01-26 2001-08-03 Fuji Photo Film Co Ltd デジタルスチルカメラ、レンズ配置較正装置、レンズ配置較正方法、およびコンピュータ読み取り可能な記録媒体
JP2003270515A (ja) * 2002-03-19 2003-09-25 Ricoh Co Ltd 撮像装置
US20060120709A1 (en) * 2004-12-06 2006-06-08 Fumikazu Kobayashi Image device, control method for the imaging device, program for performing the control method, and recording medium recording the program
JP2006162821A (ja) * 2004-12-06 2006-06-22 Sony Corp 撮像装置、撮像装置の制御方法、撮像装置の制御方法のプログラム及び撮像装置の制御方法のプログラムを記録した記録媒体
JP2013242356A (ja) * 2012-05-18 2013-12-05 Canon Inc レンズ鏡筒およびカメラシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11467367B2 (en) 2018-03-23 2022-10-11 Fujifilm Corporation Imaging device, imaging method, and program

Also Published As

Publication number Publication date
JP6166555B2 (ja) 2017-07-19

Similar Documents

Publication Publication Date Title
JP6245885B2 (ja) 撮像装置およびその制御方法
JP2016207030A (ja) 画像処理装置
CN106054350B (zh) 光学装置和显示控制方法
CN107976804B (zh) 一种镜头光学系统的设计方法、装置、设备及存储介质
US20170264812A1 (en) Focusing apparatus, its control method, image pickup apparatus, and storage medium
JP5173210B2 (ja) フォーカスレンズ、ズームレンズの駆動手段を有する光学機器
US20160112646A1 (en) Image processing apparatus, image pickup apparatus, and image processing method
WO2020184286A1 (en) Imaging device, image capturing optical system, and movable apparatus
JP6014452B2 (ja) 焦点検出装置及びそれを有するレンズ装置及び撮像装置
CN105308489A (zh) 焦点调节装置、照相机系统以及焦点调节方法
JP6957204B2 (ja) 顕微鏡システム、制御方法、及び、プログラム
JP2012141491A (ja) ズームトラッキング制御装置、複眼撮像装置、および、ズームトラッキング制御装置の制御方法
JP6166555B2 (ja) レンズ装置及びそれを有する撮影装置
JP2015212746A (ja) ズームトラッキング制御装置、ズームトラッキング制御プログラム、光学機器および撮像装置
JP6639117B2 (ja) 光学機器およびフォーカス制御プログラム
JP6288968B2 (ja) 自動焦点調整制御装置及びそれを有するレンズ装置、撮像装置
US20190230340A1 (en) Three-dimensional image capturing device and method
JP7379039B2 (ja) レンズ装置、撮像装置、レンズ装置の制御方法、およびプログラム
KR102516175B1 (ko) 줌 렌즈의 광축 보정 방법, 장치 및 컴퓨터 프로그램
CN110320650A (zh) 透镜装置和摄像装置
US12117667B2 (en) Optical apparatus, its control method, and storage medium
JP6602159B2 (ja) 撮像装置およびその制御方法
JP2020197549A (ja) レンズ装置、カメラ、カメラシステム、制御方法
JP2007322759A (ja) ズームレンズ位置制御装置、ズームレンズ位置制御方法およびズームレンズ位置制御プログラム
JP2020020667A (ja) 測距装置および車載カメラシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170623

R151 Written notification of patent or utility model registration

Ref document number: 6166555

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151