JP2005017893A - Auxiliary light projector and camera system using same - Google Patents

Auxiliary light projector and camera system using same Download PDF

Info

Publication number
JP2005017893A
JP2005017893A JP2003185113A JP2003185113A JP2005017893A JP 2005017893 A JP2005017893 A JP 2005017893A JP 2003185113 A JP2003185113 A JP 2003185113A JP 2003185113 A JP2003185113 A JP 2003185113A JP 2005017893 A JP2005017893 A JP 2005017893A
Authority
JP
Japan
Prior art keywords
auxiliary light
information
unit
subject
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003185113A
Other languages
Japanese (ja)
Inventor
Kazutoshi Usui
一利 臼井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2003185113A priority Critical patent/JP2005017893A/en
Publication of JP2005017893A publication Critical patent/JP2005017893A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an auxiliary light projector which projects the auxiliary light adequate for a taking lens mounted on a camera and a camera system using the same. <P>SOLUTION: The auxiliary light projector 5 projects the auxiliary light for focus detection onto a subject based on the various levels of the luminance or contrast of the subject and causes the auxiliary light reflected from the subject to be detected by a focus detecting means 17 of the camera 1. An auxiliary light projecting means 81 for projecting the auxiliary light changes the projection range of the auxiliary light according to the information of the taking lens 3 for photographing the subject. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、自動焦点検出用の補助光投光装置とこれを用いたカメラシステムに関する。
【0002】
【従来の技術】
従来、カメラの自動焦点検出に使用される補助光投光装置では、被写体が暗い場合や、コントラストが低い場合には、被写体のコントラストを確保するために、投光スポットを被写体上で走査する補助光投光装置がある(例えば、特許文献1参照。)。
【0003】
【特許文献1】
特開平10−90592号公報
【0004】
【発明が解決しようとする課題】
撮影レンズが交換可能なカメラの場合、カメラに装着されている撮影レンズの焦点距離により撮影画角が異なる。一般的に、交換レンズの焦点距離は、数mm〜数百mmになり、これに伴い撮影画角も変化する。従来の補助光投光装置では、望遠レンズの撮影画角に合わせて焦点検出用の補助光の照射角度を決めると、広角レンズが装着された際、広角レンズの撮影画角全ての自動焦点検出エリアに補助光を投光する事ができなくなるという問題がある。
【0005】
また、広角レンズの撮影画角に合わせて焦点検出用の補助光の照射角度を決めると、望遠レンズが装着された際、補助光の投光角度の分解能が悪くなり、望遠レンズの撮影画角全てに亘って補助光の投光角度の細かな制御が困難であるという問題がある。
【0006】
本発明は、上記問題に鑑みてなされたものであり、カメラに装着されている撮影レンズに好適な補助光を投光する補助光投光装置とこれを用いたカメラシステムを提供することを目的とする。
【0007】
【課題を解決するための手段】
上記目的を達成するために、本発明では、被写体の輝度またはコントラストの高低に基づいて焦点検出用の補助光を前記被写体に投光し、前記被写体から反射された前記補助光をカメラの焦点検出手段に検出させる補助光投光装置において、前記補助光を投光する補助光投光手段は、前記被写体を撮影する撮影レンズの情報に応じて、前記補助光の投光範囲を変更することを特徴とする補助光投光装置を提供する。
【0008】
また、本発明にかかる補助光投光装置では、前記補助光投光手段は、回動可能に支持された補助光投光部と、前記補助光投光部の回動量を検出する回動量検出部と、前記補助光投光部を回動駆動するための駆動部と、前記回動量検出部からの出力を基に前記駆動部を制御する制御部とからなり、前記制御部は、前記撮影レンズの情報に基づき、前記補助光投光部の振り角と最小回動ステップ量の少なくとも一方を変更することが好ましい。
【0009】
また、本発明にかかる補助光投光装置では、前記撮影レンズの情報は、前記撮影レンズの焦点距離情報または被写体距離情報の少なくとも一方であることが好ましい。
【0010】
また、本発明では、カメラと補助光投光装置とからなるカメラシステムにおいて、前記カメラは、補助光目標角度演算部を有し、前記補助光目標角度演算部は、被写体を撮影する撮影レンズの情報に基づき補助光投光位置を算出し、前記補助光投光装置は、前記算出結果に基づき被写体に補助光を投光し、前記補助光の反射光を前記カメラの焦点検出手段に検出させることを特徴とするカメラシステムを提供する。
【0011】
また、本発明にかかるカメラシステムでは、前記撮影レンズ情報は、前記撮影レンズの焦点距離情報または被写体距離情報の少なくとも一方であることが好ましい。
【0012】
【発明の実施の形態】
以下、本発明にかかる実施の形態に付いて図面を参照しつつ説明する。
【0013】
図1は、本発明の実施の形態にかかる補助光投光装置を搭載したカメラシステムの構成図を示す。図2は、図1に示すカメラシステムの焦点検出手段の概略構成例を示す。図3は、図1に示すカメラシステムの露光量検出手段(AE検出)の概略構成図を示す。図4は、図3に示すAEセンサーの拡大概略図を示す。図5は、本発明の実施の形態にかかる補助光投光装置の概略構成図を示す。図6は、本発明の実施の形態にかかる補助光投光装置の補助光投光位置の説明図を示し、図7は、ファインダ内での補助光の投光状態を示す概略図である。図8は、図1に示すカメラシステムにおけるAFエリア手動選択時の補助光投光処理フローチャートである。図9は、図1に示すカメラシステムにおけるAFエリア自動選択時の補助光投光処理フローチャートである。
【0014】
図1において、本発明の実施の形態にかかるカメラシステムは、カメラ本体1(以後、カメラと記す)とカメラ1に装着された交換可能な撮影レンズ3と被写界に対して焦点検出(AF検出)に用いる補助光を投光する補助光投光装置5とから構成されている。
【0015】
不図示の被写体からの光は、撮影レンズ3を介してクイックリターンミラー6で反射されてファインダスクリーン7上に結像し、ペンタプリズム9および接眼レンズ11を介して撮影者に観察可能となる。また、上記反射光の一部はAEセンサ13に導かれ入射光の光量が測定される。
【0016】
クイックリターンミラー6の中央部は、ハーフミラーとなっており、ここを通過した光はサブミラー15で反射されて焦点検出手段17に入射される。
【0017】
クイックリターンミラー6は、不図示の駆動部で駆動され、露光時に光軸から跳ね上げられ、シャッタ19が開閉されて被写体からの光が全てフィルムまたは撮像素子21に導かれる(以後の説明は撮像素子を用いた場合について説明する)。
【0018】
カメラ1に内蔵されているカメラCPU23には、AEセンサ13の信号を処理するAE信号処理部25、焦点検出手段17の信号を処理するAF信号処理部27、撮像素子21からの画像信号を処理する映像信号処理部29、後述する補助光目標角度演算部31、およびファインダ内にAFエリアを表示する表示部33を制御する表示制御部35等が含まれている。
【0019】
また、カメラCPU23には、カメラ1のレリーズボタンの半押しSW37、全押しSW39やカメラ1に設けられているAFモードSW41、およびAFセレクタSW43等からの信号が入力され、所定のシーケンス制御が行われる。
【0020】
半押し状態では、被写体の明るさをAEセンサ13で検出して最適露光量の演算をすること、および焦点検出手段17による焦点検出が行われ被写体への合焦動作が撮影レンズ3を駆動して行われる。全押し状態で、クイックリターンミラー6が光軸から跳ね上げられ、シャッタ19が開閉されて撮像素子21に被写体像が露光される。
【0021】
AFモードSW41は、マニュアル、シングル、コンティニュアス等のAFモード選択を行う。マニュアルモードが選択された場合には、補助光の発光および焦点検出機能は働かない。シングルモードを選択すると、レリーズボタンの半押し動作に連動して後述する一連の焦点検出動作を行う。コンティニュアスモードを選択すると、レリーズボタンの半押し動作中、後述する焦点検出動作を続ける。
【0022】
AFセレクタSW43は、AFエリアが撮影者による手動選択となっているか、自動選択となっているか、そして手動選択の場合どのAFエリアを選択するかを撮影者が入力するものである。この撮影者のAFエリア選択情報を基に、表示制御部35がファインダ内の表示部33にAFエリアの表示を行う。
【0023】
また、カメラCPU23は、撮影レンズ3や補助光投光装置5と、不図示の接点を介して各種情報の伝達が相互に行われる。
【0024】
撮影レンズ3は、レンズの焦点距離情報を得るための焦点距離エンコーダ51と被写体までの現在距離値を得るための被写体距離エンコーダ53を有し、各エンコーダの数値はレンズCPU55を介してカメラCPU23に送られる。また、レンズCPU55には、撮影倍率βを記憶している不図示のROMを有している。そして、焦点距離エンコーダ51と被写体距離エンコーダ53の数値を基に撮影倍率βが算出されて、その値はカメラCPU23に伝達される。
【0025】
撮影レンズ3は、カメラCPU23からの焦点検出手段17に基づくデフォーカス情報により、フォーカスレンズ群57がレンズ駆動モータ59(例えば、公知の超音波モータ等)により駆動されて合焦動作を行う。駆動モータ59の回転量はエンコーダ61で検出される。エンコーダ61には、例えば、MR(磁気抵抗効果)センサ等が用いられる。エンコーダ61の信号はレンズCPU55内のAF制御部63に送られる。AF制御部63は、カメラCPU23から送られるデフォーカス情報を基に、フォーカスレンズ群57の目標駆動量を算出し、レンズ駆動モータ59を制御して目標位置にフォーカスレンズ群57を移動させる。このようにして、合焦のためのフィードバック制御が行われる。なお、撮影レンズ3は、防振補正機構を有するレンズであっても良い。
【0026】
補助光投光装置5は、回動可能に支持されている補助光の投光部81と、被写体の明るさが不足している際に発光するストロボ発光部(以後、SB発光部と記す)83を有している。また、投光部81を制御する補助光制御部85とSB発光部83の発光量等を制御するSB制御部87を含むSBCPU89を備えており、SBCPU89とカメラCPU23とは、不図示の接点を介して情報の伝達を行っている。
【0027】
図2は、焦点検出手段17のAFセンサエリア(AF検出エリア)の一例を示している。本実施の形態では、ファインダの中心部に十字センサを配置したエリア1、中央部の上下領域には、横センサを配置したエリア2、およびエリア4、そして中央部の左右領域には縦センサを配置したエリア3、およびエリア5の計5箇所の検出エリアが設けられている。各センサのサイズは、幅が約1mm、長さが2〜5mm程度である。なお、AFセンサエリアの配置は、カメラ1の設計により適宜変更される。
【0028】
図3は、AE検出系とその制御を説明するものである。撮影レンズ3を通過した光束は、クイックリターンミラー6、ファインダスクリーン7、ペンタプリズム9、接眼レンズ11を通って撮影者の目に到達する。一方、ファインダスクリーン7によって拡散された光束の一部は、ペンタプリズム9、測光用レンズ101を通して受光素子13へ到達する。受光素子13は、例えばCCD素子のような蓄積型受光素子である。
【0029】
AE検出系は、受光蓄積部(受光素子)13と、転送部103と、電圧変換部105と、蓄積ゲート部107、および各種制御部とから構成されている。受光蓄積部13は、図4に示すように横20個、縦12個のマトリクス状に複数の受光セグメントが配置されており、それぞれのセグメントで発生した電荷を蓄積する。また、受光蓄積部13は、ちょうど撮影画面に相当する被写界を測光するようになっている。図4に、測光領域の分割状態を被写界上に照らし合わせたときの状態を示す。転送部103へは、タイミング回路109から電荷の転送に必要なクロックパルスが供給されており、受光蓄積部13で蓄積した電荷を1画素ずつ電圧変換部105へ転送する。電圧変換部105では、送られてきた240個の画素の電荷信号を同数の電圧レベル値に変換して出力端子からA/D変換部111へ出力する。蓄積ゲート部103は、蓄積時間設定部113からの信号を受けて受光蓄積部13に電荷蓄積の開始と終了を指令するゲートであり、このゲートにパルス信号を送る事によって電荷蓄積の開始及び終了を行う。蓄積時間設定部113では、輝度算出部115及び露出演算部117からの情報を基に、次回蓄積時における最適な蓄積時間を演算して蓄積電荷量の調整を行う。A/D変換部111は、受光素子13からの電圧信号をコンピュータが認識可能な数値信号に変換し、輝度算出部115へ出力する。輝度算出部115では、レンズ内ROM119から入力した撮影レンズ3に関する情報と、蓄積時間設定部113から入力した蓄積時間tと、A/D変換部111からの信号V(m,n)とを用いて、240個の輝度値BV(m,n)を以下に示す式によって求める。
【0030】
BV(m,n)=log(V(m,n)・k(m,n)/t)/log(2)
ただし、BV(m,n)は、図4におけるマトリクス状の複数の測光領域のそれぞれ左からm番目、下からn番目の領域を示している。右辺において2を底とする対数をとっているのは、アペックス方式に基づく輝度値に変換するためであり、BV(m,n)の単位は(EV)もしくは(BV)である。k(m,n)は、装着された撮影レンズ3における各測光領域に固有の補正係数であり、レンズ内ROM119から入力した開放F値、射出瞳位置、ビグネッティング情報等から実験またはシミュレーションにより求める。
【0031】
露出演算を行う際は、露出演算部117が、輝度算出部115から240個の輝度信号を受けて露出演算を行い、適正露出値を算出する。
【0032】
このようにして、本発明の実施の形態にかかる補助光投光装置を搭載したカメラシステムが構成されている。
【0033】
次に、本実施の形態にかかる補助光投光装置について図5に基づき詳説する。
【0034】
図5において、補助光の発光部81は、円筒状のハウジング130内に、補助光を発光するLED素子131(IREDまたはLDを用いても良い)を保持する基板133が一端部に固定され、他端部にはコリメータレンズ135が固定されて形成された可動筒137が設けられている。LED素子131とコリメータレンズ135との間には発光光の光束を制限する固定絞り139が設けられている。可動筒137外周の下部には、可動筒137を支持するために、ハウジング130に支持された先端が尖っている針状の支持部材141に当接する窪み部143が設けられている。この窪み部143を支点として、可動筒137は上下左右に可動自在に支持されている。支持部材141が当接する窪み部143の略真上部分には、ハウジング130に支持され可動筒137を支点方向に押圧する弾性体145が設けられ、振動等によって可動筒137が支点から外れないように構成されている。可動筒137はその重心付近で支持部材141と弾性体145で支持されハウジング130内で上下左右に回動可能に保持されている。
【0035】
可動筒137の上下左右への回動は、可動筒137の外周の発光素子131側に設けられたボイスコイルモータ(VCM)147によって行われる。図中のVCM147は上下方向(ピッチング)の回動用であるが不図示の左右方向(ヨーイング)の回動用のVCMも設けられている。
【0036】
可動筒137の回動量は、可動筒137の外周部のLED素子131の側で、VCM147に対向する位置に設けられた角度検出部149によって上下方向のピッチング量が検出される。不図示の左右方向のヨーイング量検出部と駆動用のVCMは、VCM147と角度検出部149のなす軸を含む平面内でこの軸に略垂直な方向で可動筒137の外周部に対向して設けられている。
【0037】
LED素子131の発光制御は、LED駆動部151により、LED素子131の駆動電流制御を行うことにより発光量のコントロールを行う。
【0038】
SBCPU89内の補助光制御部85には、LED駆動部151に発光量の指示を行う発光量演算部153が設けられ、SBCPU89を介してカメラCPU23と情報の伝達を行い適切な発光量を演算し、LED駆動部151に適切な発光量の指示を行う。
【0039】
可動筒137の回動駆動用のVCM147は、パルス幅変調ドライバ(PWMドライバ)155からDuty制御された回動駆動用の電流が供給され、可動筒137が適切に駆動される。
【0040】
可動筒137の回動に伴い、角度検出部149で検出された角度信号は、LPF&アンプ部157を介して補助光制御部85の追従制御部159に送られる。角度検出部149の電圧出力から高周波数ノイズ成分を排除するために設けられたLPFのカッオフ周波数は追従制御部159の安定性を考慮して適切な値に設定される。また、アンプ部では、後述する角度検出部149のダイナミックレンジ(検出幅)の変更に伴い、アンプゲインを変更できる構成となっている。追従制御部159は、カメラCPU23から送られてきた、後述する目標角度演算結果に基づき可動筒137を駆動するための制御演算を行う。角度検出部149の出力と目標角度演算部31からの目標角度より公知のPID制御等で演算を行う。追従制御演算出力はPWMドライバ155に駆動Dutyとして出力される。
【0041】
補助光目標角度演算部31は、レンズCPU55から取得した、撮影レンズ3の焦点距離情報、撮影倍率情報、被写体距離情報と、カメラCPU23で取得したAFモードSW情報、AFセレクタ情報、AE輝度信号情報、AFデフォーカス情報と、SBCPU89から取得した投光部81の高さL(図6参照)情報等とを基に、補助光の投光目標角度を演算する。演算結果はSBCPU89内の補助光制御部85に送られる。
【0042】
上述のような構成と、フィードバック制御によって、撮影レンズ3の特性に応じて補助光を目標範囲に投光することができ、補助光から出射される光束を絞り、必要なエリアにのみ照射する事で投光効率をあげ、消費電力の低減効果のある補助光投光装置5を得ることができる。
【0043】
次に、補助光目標角度演算に関して詳説する。
【0044】
カメラ1に装着されている撮影レンズ3の焦点距離情報、撮影倍率(β)情報、被写体距離情報、AF選択エリア情報を基に、補助光の投光目標角度を演算する。カメラ1は、図2に示したAFエリア配置情報を有している。図2では焦点検出領域が5ヶ所。各領域はエリア1、エリア2・・・エリア5と識別されている。
【0045】
焦点検出センサの大きさは35mmフィルムカメラの場合、画面大きさに換算すると長手方向が2〜5mm、幅方向が1mm弱程度である。補助光の投光目標角度を演算するために、焦点検出エリアの画面内座標とその検出方向を定義する必要がある。図2において、画面中央部を原点(0、0)とし、各エリアの両端の座標値を焦点検出センサ配置情報としてカメラCPU23に記憶しておく。座標スケールは、検出領域幅の半分程度とし、前述の様に幅1mmの場合、0.5mm単位となる。例えば、図2においてエリア2の配置が画面中央に対し、高さ6mm、幅4mmで画面横方向(縦コントラスト検出)の場合、配置情報は(−8、12)、(8、12)、Hと表される。エリア1の場合、検出方向が2方向あるため配置情報も縦方向と横方向双方の情報を有することになる。このAFエリア配置情報を基に補助光の振り角を演算する。
【0046】
図6(a)に示すように、補助光投光装置5からの補助光の光軸171を撮影レンズ3の光軸173と略平行な状態で出射すると、被写体175の被写体距離Rが近い場合パララックスの影響で所望の位置に補助光を照射する事が出来ないので、被写体175までの距離に応じて補助光の投光角度θを補正する必要がある。補正には撮影レンズ3の光軸173からの補助光出射高さLが必要となる。補助光出射高さLは、カメラ1の接点と撮影レンズ3の光軸173までの高さCLと、補助光投光装置5の接点から投光部81の光軸171までの高さSLとの和となる。CLはカメラCPU23が、SLはSBCPU89がその情報をそれぞれ有している。撮影倍率βおよび撮影距離Rの情報は、レンズCPU55から、また、SLの情報はSBCPU89からカメラCPU23に通信される。これらの情報を基に、補助光目標角度演算部31で補助光の投光角度θが算出される。
【0047】
撮影者が図6(b)に示すAFエリアで、例えばエリア1を選択した場合、初期出射角度θini(1)は、図6(a)より、
θini(1) = Arctan(L/R)、(R’≒R)
で与えられる。また、エリア2を選択した場合、初期角度θini(2)は、撮影倍率βとエリア配置情報(h2)を用いて
θini(2) = Arctan((L−1/β*h2)/R)、(R’≒R)
で与えられる。なお、R’とRは略等しいので上記式でRとしても計算上問題はない。
【0048】
ここでは、上下(ピッチング)方向の初期出射角度θiniについて述べたが左右(ヨーイング)方向の初期出射角度についても同様に演算する。
【0049】
上記の演算結果により、カメラ1に装着されている撮影レンズ3に応じて補助光の投光位置が最適化されるため、図7に示すように常に被写体175上の目標とするAFエリア(例えば、エリア1(白抜き矢印))に補助光を投光することが可能となる。
【0050】
さらに、本実施の形態にかかる補助光投光装置5では、補助光の走査範囲と最小走査ステップ量が、カメラ1に装着された撮影レンズ3の焦点距離等の情報に基づいて変更される。以下、詳述する。
【0051】
カメラ1に装着された撮影レンズ3の焦点距離により撮影画角が変わるため、焦点検出用の補助光の振り角(走査範囲)を変更する。焦点距離が長い程、画角は狭くなり、例えば35mmシステムにおいて、焦点距離300mmの場合、対角で約8度程度となる。一方、焦点距離が短い程、画角は広くなり、例えば焦点距離18mmの場合、対角で約100度になる。このため画角に応じて補助光の振り角を最適化する必要がある。また、画角が狭いときには、補助光の振り角は少なくて済むが振り角に要求される精度(走査ステップ)は細かくなる。画角が広いと、補助光の振り角は大きくなるが、要求される精度は低くても良くなる。振り角の制御精度は、補助光の角度検出部149に依存する。仮に角度検出部149の最大振り角を100度とした場合、10bitA/D回路で量子化すると制御精度はおよそ0.1度/LSBとなり、補助光振り角の精度も0.1deg以上求めることは難しくなる。このまま、焦点距離300mmの撮影レンズで用いた場合、300mm×tan0.1degより、像面分解能は0.5mm程度となる。これは、補助光を最小間隔が0.5mm間隔でしか振ることができないこととなる。
【0052】
一方、像面換算した際のAFセンサCCDの幅は、前述のように、幅1mm程度しかなく、補助光の走査ステップが0.5mm間隔では分解能が明らかに不足している事が判る。
【0053】
本実施形態では、撮影レンズ3から随時送られてくる焦点距離情報や被写体距離情報に応じて補助光の振り角と最小走査ステップ量を変更するように角度検出出力149および可動筒137の回動用VCM147の最小回動ステップ量も変更する。
このように、撮影レンズ3に応じて最大振り角と最小走査ステップ量とを変更することで、撮影レンズ3に適した焦点検出用の補助光を被写体に投光することが可能となる。
【0054】
振り角は、焦点距離情報を基に画角を演算し、例えば、演算された画角の2倍を振り角(ダイナミックレンジ)とし、角度検出部149後段に設けられたLPF&アンプ部157のアンプゲインを変更する。また、LPF&アンプ部157のアンプゲインの変更に伴い追従制御部159のフィードバックゲインも変更する。以上のアンプゲインとフィードバックゲインの変更により、撮影レンズ3の焦点距離(画角)に応じた適切なダイナミックレンジと最小走査ステップ量(分解能)の確保が可能となり、最適な補助光の照射が可能となる。
【0055】
次に、本発明にかかる補助光投光装置を用いたカメラシステムにおける、焦点検出ステップに関して図8、図9を用いて詳説する。
【0056】
撮影者が、カメラシステムの電源をON状態した際、カメラCPU23では、焦点距離情報、被写体距離情報等の各種情報を入手し待機する。
●(ステップ1(S1)):AE出力読み込み
撮影者が被写体に対して撮影体勢をとりレリーズボタンを半押しON状態にすると、AE検出素子13で被写体からの光量を検出し、カメラCPUに読み込む。
●(ステップ2(S2)):補助光要否判定
ステップS1の情報を基に、補助光の投光が必要かどうかの判定を行う。補助光不要時は補助光発光シーケンスを終了(END)して不図示の焦点検出シーケンスを実行する。
●(ステップ3(S3)):AE配置情報受け取り
補助光の投光が必要なほど輝度またはコントラストが不足している場合には、補助光投光装置のSBCPU89はカメラCPU23からAF検出エリア配置情報を受け取る。AF検出エリアは、カメラにより異なっているため、AF検出エリア配置情報を受け取ることによりAF選択エリアに対し、的確に補助光を照射することが可能となる。また、AF検出エリア配置情報には、AF検出エリアが縦に配置されているか、横に配置されているかの情報も含む。これにより、AF補助光の照射方向が変えられる。AF検出エリアが縦方向に配置されている場合には、AF検出エリア上で横縞を作る様に補助光を照射し、AF検出エリアが横方向に配置されている場合には縦縞を作るように補助光を照射するように制御する。
●(ステップ4(S4)):AF補助光駆動制御開始
角度検出部149からの出力に基づき、補助光を目標位置に投光するフィードバック制御を行う。補助光の投光目標角度を前述の初期位置θiniにセットし、補助光の投光位置の定位置制御を開始する。この時点での初期位置θiniは、補助光角度検出部149の中心位置で行われる。
●(ステップ5(S5)):AFエリア手動選択か否かの判定
AFエリア選択が手動になっているか、自動になっているかを読込み、自動になっている場合には自動選択時のフロー(S23以降)の処理を行う。ここでは手動選択の場合について説明する。
●(ステップ6(S6)):焦点距離情報、被写体距離情報の読み込み
カメラCPUは、撮影レンズ3に設けられた焦点距離エンコーダ51、被写体距離エンコーダ53からレンズCPU55を介してそれぞれの情報を取得する。
● (ステップ7(S7)):角度検出部149のダイナミックレンジ設定
カメラ1に装着されている撮影レンズ3の焦点距離により撮影画角が変わり、これに伴い補助光の振り角および最小走査ステップ量が変化する。撮影レンズ3の焦点距離に応じて角度検出部149後段に設けられているLPF&アンプ部157のダイナミックレンジを最適な値に設定する。
●(ステップ8(S8)):AF選択エリアの読み込み
撮影者によって選択されたAF選択エリア情報をカメラCPU23に読み込む。
●(ステップ9(S9)):補助光目標角度変更
焦点距離エンコーダ51の出力と距離エンコーダ53の情報及びAF選択エリア情報を基に補助光目標角度演算部31により補助光目標角度が算出されSBCPU89に伝達されて、補助光の投光角度が設定される。被写体距離エンコーダ53の出力はパララックス補正に用いられる。最初にこの処理を行う時点ではフォーカスは合っていない場合が通常であり、この処理は、回数を重ねる毎に確からしさを増す。AF選択エリアに向けて目標角度を変更する理由は、選択エリア付近には被写体がある可能性が高いからである。
●(ステップ10(S10)):キャリブレーション発光
ステップ9で補助光の投光角度を目標角度に設定した後、キャリブレーション発光を行う。キャリブレーション発光ではAE輝度値情報から補助光の大まかな照射位置及び発光量の調整を行う。発光時間は、AE素子蓄積時間を基に設定する。
●(ステップ11(S11)):AE出力読み込み
カメラCPU23は、ステップS10のキャリブレーション発光後、AEセンサー13からのAE輝度値情報を取得する。
●(ステップ12(S12)):補助光確認
S11のAE輝度値情報から補助光が所定の範囲内に投光されている否かを確認する。発光前に読み込んだAE輝度値情報と比較して補助光と思われる輝度出力が得られたか確認する。
●(ステップ13(S13)):異なるAFエリアへ目標角度変更
ステップS11で発光前のAE輝度出力とキャリブレーション発光後のAE輝度出力に差が見られない場合、そのAF選択エリアに被写体が無いか、あるいは、そのAF選択エリアの被写体が遠いなどの原因が考えられる。その場合は選択されたAFエリアと異なるエリアに目標角度を変えて再度、キャリブレーション発光を行う。全AFエリアに照射しても補助光出力が得られない場合、撮影者に警告を行い、補助光発光を取り止める。
●(ステップ14(S14)):補助光投光位置所定範囲内かの判定
AE出力を基に補助光投光概略位置を検出する。発光前に読み込んだAE輝度出力と今回読み込んだAE輝度出力を比較して照射位置の検出を行う。補助光照射位置が所定範囲内に有れば、後の本発光時にAFエリアを捉えることが可能となる。所定範囲内に無い場合には、AE輝度出力を基に補助光目標角度の再設定(S9)を行い、再度キャリブレーション発光(S10)を行う。
●(ステップ15(S15):デフォーカス量推測
補助光投光位置が所定範囲内に無い場合は、以下の原因が考えられる。
【0057】
(a) AF合焦しておらず、被写体距離エンコーダ53の値が被写体距離にあっていない。このため、パララックス補正が適当ではなく照射位置にずれが生じている。
【0058】
(b) 補助光角度検出部149出力中心位置での補助光の光軸171と撮影光レンズ3の光軸173との角度にずれが有る。
【0059】
(a)の要因より被写体までの概略位置を演算する事が可能となる。補助光照射角度θ、補助光投光部81の高さL、画面内補助光確認位置h2、撮影倍率β等から、被写体距離Rtは、
Rt = (L−h2/β)/tanθ
で表される。但し、撮影倍率βが被写体距離Rと焦点距離fとの関数である。この様に観測された補助光確認位置から概略の被写体距離Rtを推測することができる。
●(ステップ16(S16)):デフォーカス量所定範囲内か否かの判定
前述の様に推測した被写体距離と撮影レンズ3から送られた被写体距離エンコーダ53の値からデフォーカス量を求める。デフォーカス量が所定範囲内であれば、前述(b)の要因を修正するため照射位置が所定範囲に収まるように、補助光目標角度変更ステップ以降の各ステップ(S9〜S13)を実行する。デフォーカス量が所定範囲外であれば、レンズにデフォーカス量を送り、AF駆動を行い(S17)、補助光目標角度変更ステップ以降の各ステップ(S9〜S13)を再度実行する。この様にデフォーカス量の推測により、焦点検出で捉えきれないボケ像に対しても合焦概略位置が特定出来きるため、AF速度を向上することが可能となる。
●(ステップ18(S18)):選択されたAFCCDへ補助光目標角度変更
ステップ14の判断ルーチンで補助光投光位置が所定範囲内にある場合、AF選択エリア情報を基にAFエリアのセンサ(CCD)に向けて補助光目標角度を変更し、変更内容をSBCPU89に指示する。
●(ステップ19(S19)):補助光SCAN
補助光を所定のパターンでスキャン発光し、AF選択エリアのAFセンサー位置に補助光を走査する。カメラCPU23の不図示のROMに記憶してあるAFセンサー(CCD)の形状に合わせて補助光目標角度を随時SBCPU89に指示する。カメラ1からスキャンパターンを指示することにより、AFセンサーに合わせて的確な焦点検出が可能となる。
●(ステップ20(S20)):AF信号処理
公知の焦点検出処理により被写体への合焦を行う。
●(ステップ21(S21)):デフォーカス所定範囲か否かの判定
デフォーカス量が所定範囲内であればAF終了であるため補助光制御を停止して終了する(END)。でフォーカス量が所定範囲に無い場合には、デフォーカス量をレンズに伝達する。
●(ステップ22(S22)):デフォーカスデータレンズへ
デフォーカス量に応じてAF駆動を行う。カメラ1側は再度AFエリア手動選択ステップ以降の各ステップ(S5〜S21)を実行する。
【0060】
以上が手動選択時の駆動シーケンスである。
【0061】
続いて、自動選択時の駆動シーケンス(ステップ23以降)に付いて図9のフローチャートにより説明する。図8の手動選択時のフローチャートと同等の処理ステップには同じ符号を付し説明を省略し、異なるステップに関してのみ説明する。
●(ステップ24(S24)):AF選択エリア中央へ
図8のステップS8に相当するステップで、補助光の最初の投光位置がAFエリア中央を自動的に選択するステップである。なお、最初の投光位置は必ずしもAFエリア中央に限られないが、一般にAFエリア中央が最も位置が分かりやすい。以後、S9からS17までのステップグループSG1は手動選択時と同様である。S14で補助光照射位置が所定範囲内に有れば、次のS25に進む。
●(ステップ25(S25)):AFエリアを変更
自動的にAFエリアを変更してS9からS13のステップグループSG2を繰り返す。こうして全てのAFエリアについてスキャンを行う。
●(ステップ26(S26)):全エリアSCAN終了
全てのAFエリアのスキャンが完了したら、ステップ27に進む。
●(ステップ27(S27)):AEにより補助光が確認できたAFエリア選択
前のステップで全AFエリアについてスキャンし、このうちAEセンサーにて補助光の投光位置が確認できたAFエリアを選択しS18からS20を実行し、全てのAE出力ありエリアのSCANが終了(S28)したら、ターゲットAFエリアの選択S29を実行し焦点検出に用いるAFエリアを選択する。以降は、手動選択と同様の処理となるので説明を省略する。以上のステップによって、自動選択時の焦点検出が実行される。
【0062】
なお、上述の実施の形態は例に過ぎず、上述の構成や形状に限定されるものではなく、本発明の範囲内において適宜修正、変更が可能である。
【0063】
【発明の効果】
以上述べたように、本発明によれば、カメラに装着されている撮影レンズに好適な補助光を投光する補助光投光装置とこれを用いたカメラシステムを提供することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態にかかる補助光投光装置を搭載したカメラシステムの構成図を示す。
【図2】図1に示すカメラシステムの焦点検出手段の概略構成例を示す。
【図3】図1に示すカメラシステムの露光量検出手段(AE検出)の概略構成図を示す。
【図4】図3に示すAEセンサーの拡大概略図を示す。
【図5】本発明の実施の形態にかかる補助光投光装置の概略構成図を示す。
【図6】本発明の実施の形態にかかる補助光投光装置の補助光投光位置の説明図を示す。
【図7】ファインダ内での補助光の投光状態を示す概略図である。
【図8】図1に示すカメラシステムにおけるAFエリア手動選択時の補助光投光処理フローを示すフローチャートである。
【図9】図1に示すカメラシステムにおけるAFエリア自動選択時の補助光投光処理フローを示すフローチャートである。
【符号の説明】
1 カメラ
3 撮影レンズ
5 補助光投光装置
6 クイックリターンミラー
7 ファインダスクリーン
9 ペンタプリズム
11 接眼レンズ
13 AEセンサ
15 サブミラー
17 焦点検出手段
19 シャッタ
21 撮像素子(フィルム)
23 カメラCPU
25 AE信号処理部
27 AF信号処理部
29 映像信号処理部
31 補助光目標角度演算部
33 表示部
35 表示制御部
37 半押しSW
39 全押しSW
41 AFモードSW
43 AFモードセレクタSW
51 焦点距離エンコーダ
53 距離距離エンコーダ
55 レンズCPU
57 フォーカスレンズ群
59 レンズ駆動モータ
61 エンコーダ
63 AF制御部
81 投光部
83 ストロボ発光部(SB発光部)
85 補助光制御部
87 SB制御部
89 SBCPU
101 測光用レンズ
103 転送部
105 電圧変換部
107 蓄積ゲート部
109 タイミング回路
111 A/D変換部
113 蓄積時間設定部
115 輝度算出部
117 露出演算部
119 レンズ内ROM
130 ハウジング
131 LED素子
133 基板
135 コリメータレンズ
137 可動筒
139 固定絞り
141 支持部材
143 窪み部
145 弾性体
147 回動用VCM
149 角度検出部
151 LED駆動部
153 発光量演算部
155 パルス幅変調ドライバ(PWMドライバ)
157 LPF&アンプ部
159 追従制御部
171 補助光光軸
173 撮影レンズ光軸
175 被写体
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an auxiliary light projector for automatic focus detection and a camera system using the same.
[0002]
[Prior art]
Conventionally, in the auxiliary light projector used for automatic focus detection of a camera, when the subject is dark or the contrast is low, an auxiliary light scanning spot is scanned on the subject to ensure the contrast of the subject. There is a light projection device (see, for example, Patent Document 1).
[0003]
[Patent Document 1]
Japanese Patent Laid-Open No. 10-90592
[0004]
[Problems to be solved by the invention]
In the case of a camera with an interchangeable photographic lens, the photographic angle of view varies depending on the focal length of the photographic lens attached to the camera. In general, the focal length of an interchangeable lens is several mm to several hundred mm, and the shooting angle of view changes accordingly. In the conventional auxiliary light projector, if the irradiation angle of the auxiliary light for focus detection is determined in accordance with the shooting angle of view of the telephoto lens, the automatic focus detection of all the shooting angle of view of the wide angle lens when the wide angle lens is attached. There is a problem that it becomes impossible to project auxiliary light to the area.
[0005]
Also, if the illumination angle of the auxiliary light for focus detection is determined according to the shooting angle of view of the wide-angle lens, the resolution of the projection angle of the auxiliary light will deteriorate when the telephoto lens is attached, and the shooting angle of view of the telephoto lens There is a problem that it is difficult to finely control the projection angle of the auxiliary light throughout.
[0006]
The present invention has been made in view of the above problems, and an object thereof is to provide an auxiliary light projector that projects auxiliary light suitable for a photographing lens attached to a camera, and a camera system using the auxiliary light projector. And
[0007]
[Means for Solving the Problems]
In order to achieve the above object, according to the present invention, auxiliary light for focus detection is projected onto the subject based on the brightness or contrast of the subject, and the auxiliary light reflected from the subject is detected by the focus of the camera. In the auxiliary light projecting device to be detected by the means, the auxiliary light projecting unit that projects the auxiliary light changes the projection range of the auxiliary light according to information of a photographing lens that photographs the subject. A featured auxiliary light projector is provided.
[0008]
In the auxiliary light projector according to the present invention, the auxiliary light projector includes an auxiliary light projector that is rotatably supported, and a rotation amount detection that detects a rotation amount of the auxiliary light projector. , A drive unit for rotationally driving the auxiliary light projecting unit, and a control unit for controlling the drive unit based on an output from the rotation amount detection unit. It is preferable to change at least one of the swing angle and the minimum rotation step amount of the auxiliary light projecting unit based on lens information.
[0009]
In the auxiliary light projector according to the present invention, it is preferable that the information of the photographing lens is at least one of focal length information or subject distance information of the photographing lens.
[0010]
In the present invention, in the camera system including the camera and the auxiliary light projecting device, the camera includes an auxiliary light target angle calculation unit, and the auxiliary light target angle calculation unit is an imaging lens for photographing a subject. The auxiliary light projection position is calculated based on the information, and the auxiliary light projection device projects the auxiliary light onto the subject based on the calculation result, and causes the focus detection unit of the camera to detect the reflected light of the auxiliary light. A camera system is provided.
[0011]
In the camera system according to the present invention, it is preferable that the photographing lens information is at least one of focal length information or subject distance information of the photographing lens.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0013]
FIG. 1 shows a configuration diagram of a camera system equipped with an auxiliary light projector according to an embodiment of the present invention. FIG. 2 shows a schematic configuration example of the focus detection means of the camera system shown in FIG. FIG. 3 is a schematic configuration diagram of exposure amount detection means (AE detection) of the camera system shown in FIG. FIG. 4 shows an enlarged schematic view of the AE sensor shown in FIG. FIG. 5 is a schematic configuration diagram of the auxiliary light projector according to the embodiment of the present invention. FIG. 6 is an explanatory diagram of the auxiliary light projection position of the auxiliary light projector according to the embodiment of the present invention, and FIG. 7 is a schematic diagram illustrating the projection state of the auxiliary light in the finder. FIG. 8 is an auxiliary light projection processing flowchart when the AF area is manually selected in the camera system shown in FIG. FIG. 9 is a flowchart of auxiliary light projection processing at the time of automatic AF area selection in the camera system shown in FIG.
[0014]
In FIG. 1, a camera system according to an embodiment of the present invention includes a camera body 1 (hereinafter referred to as a camera), a replaceable shooting lens 3 attached to the camera 1, and focus detection (AF). And an auxiliary light projecting device 5 for projecting auxiliary light used for detection.
[0015]
Light from a subject (not shown) is reflected by the quick return mirror 6 through the photographing lens 3 and forms an image on the finder screen 7, and can be observed by the photographer through the pentaprism 9 and the eyepiece lens 11. A part of the reflected light is guided to the AE sensor 13 and the amount of incident light is measured.
[0016]
The central portion of the quick return mirror 6 is a half mirror, and the light passing through the quick return mirror 6 is reflected by the sub mirror 15 and enters the focus detection means 17.
[0017]
The quick return mirror 6 is driven by a drive unit (not shown), is flipped up from the optical axis at the time of exposure, and the shutter 19 is opened and closed, and all the light from the subject is guided to the film or the image sensor 21 (the following description is imaging) The case where an element is used will be described).
[0018]
The camera CPU 23 incorporated in the camera 1 processes an image signal from the image sensor 21, an AE signal processing unit 25 that processes the signal from the AE sensor 13, an AF signal processing unit 27 that processes a signal from the focus detection means 17. And a display control unit 35 that controls a display unit 33 that displays an AF area in the finder.
[0019]
Also, the camera CPU 23 receives signals from the release button half-press SW 37, full-press SW 39 of the camera 1, the AF mode SW 41 provided in the camera 1, the AF selector SW 43, etc., and performs predetermined sequence control. Is called.
[0020]
In the half-pressed state, the brightness of the subject is detected by the AE sensor 13 to calculate the optimum exposure amount, and the focus detection by the focus detection means 17 is performed, and the focusing operation on the subject drives the photographing lens 3. Done. In the fully pressed state, the quick return mirror 6 is flipped up from the optical axis, the shutter 19 is opened and closed, and the subject image is exposed to the image sensor 21.
[0021]
The AF mode SW 41 performs AF mode selection such as manual, single, and continuous. When manual mode is selected, the auxiliary light emission and focus detection functions do not work. When the single mode is selected, a series of focus detection operations described later are performed in conjunction with the half-pressing operation of the release button. When the continuous mode is selected, the focus detection operation described later is continued during the half-press operation of the release button.
[0022]
The AF selector SW 43 is used by the photographer to input whether the AF area is manually selected by the photographer, is automatically selected, and which AF area is selected in the case of manual selection. Based on the AF area selection information of the photographer, the display control unit 35 displays the AF area on the display unit 33 in the finder.
[0023]
In addition, the camera CPU 23 communicates various information with the photographing lens 3 and the auxiliary light projector 5 via a contact (not shown).
[0024]
The photographic lens 3 has a focal length encoder 51 for obtaining lens focal length information and a subject distance encoder 53 for obtaining a current distance value to the subject, and numerical values of each encoder are transmitted to the camera CPU 23 via the lens CPU 55. Sent. The lens CPU 55 has a ROM (not shown) that stores the photographing magnification β. The photographing magnification β is calculated based on the numerical values of the focal length encoder 51 and the subject distance encoder 53, and the value is transmitted to the camera CPU 23.
[0025]
The photographic lens 3 performs a focusing operation by driving a focus lens group 57 by a lens driving motor 59 (for example, a known ultrasonic motor) based on defocus information based on the focus detection unit 17 from the camera CPU 23. The amount of rotation of the drive motor 59 is detected by the encoder 61. For the encoder 61, for example, an MR (magnetoresistive) sensor or the like is used. The signal from the encoder 61 is sent to the AF control unit 63 in the lens CPU 55. The AF control unit 63 calculates the target drive amount of the focus lens group 57 based on the defocus information sent from the camera CPU 23, and controls the lens drive motor 59 to move the focus lens group 57 to the target position. In this way, feedback control for focusing is performed. The taking lens 3 may be a lens having an image stabilization mechanism.
[0026]
The auxiliary light projecting device 5 includes an auxiliary light projecting unit 81 that is rotatably supported, and a strobe light emitting unit that emits light when the brightness of the subject is insufficient (hereinafter referred to as an SB light emitting unit). 83. In addition, an SBCPU 89 including an auxiliary light control unit 85 that controls the light projecting unit 81 and an SB control unit 87 that controls the amount of light emitted from the SB light emitting unit 83 is provided. Information is transmitted through
[0027]
FIG. 2 shows an example of the AF sensor area (AF detection area) of the focus detection means 17. In the present embodiment, area 1 in which a cross sensor is arranged at the center of the finder, area 2 and area 4 in which horizontal sensors are arranged in the upper and lower areas in the center, and vertical sensors in the left and right areas in the center. There are five detection areas in total, that is, the arranged area 3 and area 5. Each sensor has a width of about 1 mm and a length of about 2 to 5 mm. The arrangement of the AF sensor area is appropriately changed depending on the design of the camera 1.
[0028]
FIG. 3 illustrates an AE detection system and its control. The light beam that has passed through the photographing lens 3 reaches the eyes of the photographer through the quick return mirror 6, the finder screen 7, the pentaprism 9, and the eyepiece lens 11. On the other hand, a part of the light beam diffused by the finder screen 7 reaches the light receiving element 13 through the pentaprism 9 and the photometric lens 101. The light receiving element 13 is a storage type light receiving element such as a CCD element.
[0029]
The AE detection system includes a light receiving / accumulating unit (light receiving element) 13, a transfer unit 103, a voltage converting unit 105, an accumulating gate unit 107, and various control units. As shown in FIG. 4, the light receiving / accumulating unit 13 has a plurality of light receiving segments arranged in a matrix of 20 horizontal and 12 vertical, and accumulates electric charges generated in each segment. In addition, the light receiving and accumulating unit 13 is configured to measure the object scene corresponding to the photographing screen. FIG. 4 shows a state when the divided state of the photometric area is collated on the object scene. Clock pulses necessary for charge transfer are supplied from the timing circuit 109 to the transfer unit 103, and the charges accumulated in the light receiving accumulation unit 13 are transferred to the voltage conversion unit 105 pixel by pixel. The voltage converter 105 converts the 240 charge signals sent from the pixels into the same number of voltage level values, and outputs them to the A / D converter 111 from the output terminal. The accumulation gate unit 103 is a gate that receives a signal from the accumulation time setting unit 113 and commands the light receiving and accumulation unit 13 to start and end charge accumulation. By sending a pulse signal to this gate, the start and end of charge accumulation are performed. I do. The accumulation time setting unit 113 calculates the optimum accumulation time at the next accumulation based on information from the luminance calculation unit 115 and the exposure calculation unit 117 and adjusts the accumulated charge amount. The A / D conversion unit 111 converts the voltage signal from the light receiving element 13 into a numerical signal that can be recognized by the computer, and outputs the numerical signal to the luminance calculation unit 115. The luminance calculation unit 115 uses information regarding the photographing lens 3 input from the in-lens ROM 119, the storage time t input from the storage time setting unit 113, and the signal V (m, n) from the A / D conversion unit 111. Thus, 240 luminance values BV (m, n) are obtained by the following equation.
[0030]
BV (m, n) = log (V (m, n) .k (m, n) / t) / log (2)
However, BV (m, n) indicates the mth region from the left and the nth region from the bottom of each of the plurality of matrix-shaped photometric regions in FIG. The reason why the logarithm with the base of 2 is taken on the right side is to convert it into a luminance value based on the Apex method, and the unit of BV (m, n) is (EV) or (BV). k (m, n) is a correction coefficient unique to each photometric area in the photographic lens 3 attached, and is obtained by experiment or simulation from the open F value, exit pupil position, vignette information, etc. input from the in-lens ROM 119. .
[0031]
When performing the exposure calculation, the exposure calculation unit 117 receives 240 luminance signals from the luminance calculation unit 115, performs the exposure calculation, and calculates an appropriate exposure value.
[0032]
Thus, a camera system equipped with the auxiliary light projector according to the embodiment of the present invention is configured.
[0033]
Next, the auxiliary light projector according to the present embodiment will be described in detail with reference to FIG.
[0034]
In FIG. 5, the auxiliary light emitting unit 81 includes a cylindrical housing 130 in which a substrate 133 that holds an LED element 131 that emits auxiliary light (IRED or LD may be used) is fixed to one end. A movable cylinder 137 formed with a collimator lens 135 fixed is provided at the other end. A fixed diaphragm 139 is provided between the LED element 131 and the collimator lens 135 to limit the luminous flux of the emitted light. In the lower part of the outer periphery of the movable cylinder 137, a recess 143 that abuts the needle-like support member 141 with a sharp tip supported by the housing 130 is provided to support the movable cylinder 137. The movable cylinder 137 is supported so as to be movable up and down and left and right with the depression 143 as a fulcrum. An elastic body 145 that is supported by the housing 130 and presses the movable cylinder 137 in the direction of the fulcrum is provided substantially directly above the recess 143 with which the support member 141 contacts, so that the movable cylinder 137 does not come off the fulcrum due to vibration or the like. It is configured. The movable cylinder 137 is supported by a support member 141 and an elastic body 145 in the vicinity of the center of gravity, and is held in the housing 130 so as to be capable of rotating vertically and horizontally.
[0035]
The movable cylinder 137 is rotated vertically and horizontally by a voice coil motor (VCM) 147 provided on the light emitting element 131 side on the outer periphery of the movable cylinder 137. The VCM 147 in the figure is for turning in the vertical direction (pitching), but a VCM for turning in the left-right direction (yawing) (not shown) is also provided.
[0036]
The amount of rotation of the movable cylinder 137 is detected by the angle detection unit 149 provided at the position facing the VCM 147 on the LED element 131 side of the outer periphery of the movable cylinder 137. A left-right yawing amount detection unit (not shown) and a driving VCM are provided to face the outer peripheral portion of the movable cylinder 137 in a direction substantially perpendicular to this axis in a plane including the axis formed by the VCM 147 and the angle detection unit 149. It has been.
[0037]
In the light emission control of the LED element 131, the LED drive unit 151 controls the drive current of the LED element 131 to control the light emission amount.
[0038]
The auxiliary light control unit 85 in the SBCPU 89 is provided with a light emission amount calculation unit 153 that instructs the LED drive unit 151 to emit light, and transmits information to the camera CPU 23 via the SBCPU 89 to calculate an appropriate light emission amount. Then, an appropriate light emission amount is instructed to the LED driving unit 151.
[0039]
The VCM 147 for rotationally driving the movable cylinder 137 is supplied with a current for rotational driving whose duty is controlled by a pulse width modulation driver (PWM driver) 155, and the movable cylinder 137 is appropriately driven.
[0040]
As the movable cylinder 137 rotates, the angle signal detected by the angle detection unit 149 is sent to the follow-up control unit 159 of the auxiliary light control unit 85 via the LPF & amplifier unit 157. The cutoff frequency of the LPF provided to eliminate the high frequency noise component from the voltage output of the angle detection unit 149 is set to an appropriate value in consideration of the stability of the tracking control unit 159. Further, the amplifier unit has a configuration in which the amplifier gain can be changed in accordance with the change of the dynamic range (detection width) of the angle detection unit 149 described later. The follow-up control unit 159 performs a control calculation for driving the movable cylinder 137 based on a target angle calculation result, which will be described later, sent from the camera CPU 23. Calculation is performed by known PID control or the like based on the output of the angle detection unit 149 and the target angle from the target angle calculation unit 31. The follow-up control calculation output is output to the PWM driver 155 as a drive duty.
[0041]
The auxiliary light target angle calculation unit 31 acquires the focal length information, shooting magnification information, and subject distance information of the photographing lens 3 acquired from the lens CPU 55, and the AF mode SW information, AF selector information, and AE luminance signal information acquired by the camera CPU 23. Based on the AF defocus information, the height L (see FIG. 6) information of the light projecting unit 81 acquired from the SBCPU 89, and the like, the light projection target angle of the auxiliary light is calculated. The calculation result is sent to the auxiliary light control unit 85 in the SBCPU 89.
[0042]
With the above-described configuration and feedback control, the auxiliary light can be projected to the target range according to the characteristics of the photographic lens 3, the luminous flux emitted from the auxiliary light is narrowed down, and only the necessary area is irradiated. Thus, it is possible to obtain the auxiliary light projecting device 5 that increases the light projecting efficiency and has the effect of reducing the power consumption.
[0043]
Next, the auxiliary light target angle calculation will be described in detail.
[0044]
Based on the focal length information, photographing magnification (β) information, subject distance information, and AF selection area information of the photographing lens 3 mounted on the camera 1, the projection target angle of the auxiliary light is calculated. The camera 1 has the AF area arrangement information shown in FIG. In FIG. 2, there are five focus detection areas. Each area is identified as area 1, area 2,... Area 5.
[0045]
In the case of a 35 mm film camera, the size of the focus detection sensor is about 2 to 5 mm in the longitudinal direction and about 1 mm in the width direction when converted to the screen size. In order to calculate the target projection angle of the auxiliary light, it is necessary to define the in-screen coordinates of the focus detection area and its detection direction. In FIG. 2, the center of the screen is the origin (0, 0), and the coordinate values at both ends of each area are stored in the camera CPU 23 as focus detection sensor arrangement information. The coordinate scale is about half of the width of the detection area. As described above, when the width is 1 mm, the coordinate scale is 0.5 mm. For example, when the arrangement of area 2 in FIG. 2 is 6 mm high and 4 mm wide with respect to the center of the screen in the horizontal direction of the screen (vertical contrast detection), the arrangement information is (−8, 12), (8, 12), H It is expressed. In the case of area 1, since there are two detection directions, the arrangement information also includes information in both the vertical direction and the horizontal direction. Based on this AF area arrangement information, the swing angle of the auxiliary light is calculated.
[0046]
As shown in FIG. 6A, when the optical axis 171 of auxiliary light from the auxiliary light projector 5 is emitted in a state substantially parallel to the optical axis 173 of the photographing lens 3, the subject distance R of the subject 175 is short. Since the auxiliary light cannot be irradiated to a desired position due to the effect of parallax, it is necessary to correct the projection angle θ of the auxiliary light according to the distance to the subject 175. The correction requires the auxiliary light emission height L from the optical axis 173 of the photographic lens 3. The auxiliary light emission height L is a height CL from the contact point of the camera 1 to the optical axis 173 of the photographing lens 3, and a height SL from the contact point of the auxiliary light projector 5 to the optical axis 171 of the light projecting unit 81. The sum of The camera CPU 23 has the CL, and the SB CPU 89 has the SL. Information on the shooting magnification β and shooting distance R is communicated from the lens CPU 55, and information on SL is communicated from the SBCPU 89 to the camera CPU 23. Based on these pieces of information, the auxiliary light target angle calculator 31 calculates the light projection angle θ of the auxiliary light.
[0047]
When the photographer selects, for example, area 1 in the AF area shown in FIG. 6B, the initial emission angle θini (1) is obtained from FIG.
θini (1) = Arctan (L / R), (R′≈R)
Given in. When area 2 is selected, the initial angle θini (2) is obtained using the shooting magnification β and area arrangement information (h2).
θini (2) = Arctan ((L−1 / β * h2) / R), (R′≈R)
Given in. Since R ′ and R are substantially equal, there is no problem in calculation even if R is used in the above formula.
[0048]
Although the initial emission angle θini in the vertical (pitching) direction has been described here, the initial emission angle in the horizontal (yawing) direction is similarly calculated.
[0049]
As a result of the above calculation, the projection position of the auxiliary light is optimized according to the photographing lens 3 attached to the camera 1, so that the target AF area on the subject 175 (for example, as shown in FIG. , It is possible to project auxiliary light to area 1 (white arrow).
[0050]
Furthermore, in the auxiliary light projector 5 according to the present embodiment, the scanning range and the minimum scanning step amount of the auxiliary light are changed based on information such as the focal length of the photographing lens 3 attached to the camera 1. Details will be described below.
[0051]
Since the shooting angle of view changes depending on the focal length of the shooting lens 3 mounted on the camera 1, the swing angle (scanning range) of the auxiliary light for focus detection is changed. The longer the focal length, the narrower the angle of view. For example, in a 35 mm system, when the focal length is 300 mm, the diagonal is about 8 degrees. On the other hand, the shorter the focal length, the wider the angle of view. For example, when the focal length is 18 mm, the diagonal is about 100 degrees. For this reason, it is necessary to optimize the swing angle of the auxiliary light according to the angle of view. When the angle of view is narrow, the swing angle of the auxiliary light may be small, but the accuracy (scanning step) required for the swing angle is small. When the angle of view is wide, the swing angle of the auxiliary light increases, but the required accuracy may be low. The control accuracy of the swing angle depends on the angle detector 149 of the auxiliary light. If the maximum swing angle of the angle detection unit 149 is set to 100 degrees, when the 10-bit A / D circuit is quantized, the control accuracy is approximately 0.1 degrees / LSB, and the auxiliary light swing angle accuracy is also determined to be 0.1 deg or more. It becomes difficult. When used as it is with an imaging lens having a focal length of 300 mm, the image plane resolution is about 0.5 mm from 300 mm × tan 0.1 deg. This means that the auxiliary light can only be shaken with a minimum interval of 0.5 mm.
[0052]
On the other hand, as described above, the width of the AF sensor CCD when converted into the image plane is only about 1 mm wide, and it can be seen that the resolution is clearly insufficient when the scanning step of the auxiliary light is at intervals of 0.5 mm.
[0053]
In the present embodiment, the angle detection output 149 and the movable cylinder 137 are rotated so as to change the swing angle of the auxiliary light and the minimum scanning step amount according to the focal length information and the subject distance information sent from the photographing lens 3 as needed. The minimum rotation step amount of the VCM 147 is also changed.
In this way, by changing the maximum swing angle and the minimum scanning step amount according to the photographing lens 3, it becomes possible to project the auxiliary light for focus detection suitable for the photographing lens 3 onto the subject.
[0054]
The swing angle is calculated based on the focal length information. For example, the swing angle (dynamic range) is set to twice the calculated view angle, and the amplifier of the LPF & amplifier unit 157 provided at the subsequent stage of the angle detection unit 149 is used. Change the gain. Further, the feedback gain of the follow-up control unit 159 is also changed with the change of the amplifier gain of the LPF & amplifier unit 157. By changing the amplifier gain and feedback gain as described above, it is possible to secure an appropriate dynamic range and minimum scanning step amount (resolution) according to the focal length (angle of view) of the photographic lens 3, and optimal auxiliary light irradiation is possible. It becomes.
[0055]
Next, the focus detection step in the camera system using the auxiliary light projector according to the present invention will be described in detail with reference to FIGS.
[0056]
When the photographer turns on the power of the camera system, the camera CPU 23 obtains various information such as focal length information and subject distance information and stands by.
● (Step 1 (S1)): Read AE output
When the photographer takes a shooting posture with respect to the subject and presses the release button halfway, the light amount from the subject is detected by the AE detection element 13 and read into the camera CPU.
● (Step 2 (S2)): Auxiliary light necessity determination
Based on the information in step S1, it is determined whether or not auxiliary light projection is necessary. When auxiliary light is unnecessary, the auxiliary light emission sequence is ended (END), and a focus detection sequence (not shown) is executed.
● (Step 3 (S3)): AE placement information received
If the luminance or contrast is insufficient to require the auxiliary light projection, the SBCPU 89 of the auxiliary light projector receives AF detection area arrangement information from the camera CPU 23. Since the AF detection area varies depending on the camera, it is possible to accurately radiate auxiliary light to the AF selection area by receiving the AF detection area arrangement information. Further, the AF detection area arrangement information includes information on whether the AF detection area is arranged vertically or horizontally. Thereby, the irradiation direction of AF auxiliary light can be changed. When the AF detection area is arranged in the vertical direction, the auxiliary light is irradiated so as to form a horizontal stripe on the AF detection area, and when the AF detection area is arranged in the horizontal direction, a vertical stripe is created. Control to emit auxiliary light.
● (Step 4 (S4)): AF auxiliary light drive control start
Based on the output from the angle detection unit 149, feedback for projecting auxiliary light to the target position control I do. The auxiliary light projection target angle is set to the aforementioned initial position θini, and the fixed position control of the auxiliary light projection position is started. The initial position θini at this time is performed at the center position of the auxiliary light angle detection unit 149.
● (Step 5 (S5)): Judgment whether or not AF area is manually selected
Whether the AF area selection is manual or automatic is read. If the AF area selection is automatic, the flow of the automatic selection (after S23) is performed. Here, the case of manual selection will be described.
● (Step 6 (S6)): Reading of focal length information and subject distance information
The camera CPU acquires information from the focal length encoder 51 and the subject distance encoder 53 provided on the photographing lens 3 via the lens CPU 55.
● (Step 7 (S7)): Dynamic range setting of the angle detector 149
The shooting angle of view changes depending on the focal length of the shooting lens 3 mounted on the camera 1, and the swing angle of the auxiliary light and the minimum scanning step amount change accordingly. The dynamic range of the LPF & amplifier unit 157 provided at the subsequent stage of the angle detection unit 149 is set to an optimal value according to the focal length of the photographing lens 3.
● (Step 8 (S8)): Read AF selection area
The AF selection area information selected by the photographer is read into the camera CPU 23.
● (Step 9 (S9)): Auxiliary light target angle change
The auxiliary light target angle calculation unit 31 calculates the auxiliary light target angle based on the output of the focal length encoder 51, the information of the distance encoder 53, and the AF selection area information, and transmits the auxiliary light target angle to the SBCPU 89 to set the projection angle of the auxiliary light. The The output of the subject distance encoder 53 is used for parallax correction. When this process is first performed, the focus is usually not achieved, and this process increases the certainty every time the process is repeated. The reason for changing the target angle toward the AF selection area is that there is a high possibility that there is a subject near the selection area.
● (Step 10 (S10)): Calibration light emission
In step 9, the auxiliary light projection angle is set to the target angle, and then calibration light emission is performed. In calibration light emission, the rough irradiation position and light emission amount of auxiliary light are adjusted from the AE luminance value information. The light emission time is set based on the AE element accumulation time.
● (Step 11 (S11)): Read AE output
The camera CPU 23 acquires AE luminance value information from the AE sensor 13 after the calibration light emission in step S10.
● (Step 12 (S12)): Auxiliary light confirmation
It is confirmed from the AE luminance value information of S11 whether or not the auxiliary light is projected within a predetermined range. Compared with the AE luminance value information read before the light emission, it is confirmed whether or not the luminance output considered to be auxiliary light is obtained.
● (Step 13 (S13)): Change target angle to a different AF area
If there is no difference between the AE luminance output before light emission and the AE luminance output after calibration light emission in step S11, there is no subject in the AF selection area, or the subject in the AF selection area is far away. Conceivable. In that case, calibration light emission is performed again by changing the target angle to an area different from the selected AF area. If the auxiliary light output cannot be obtained even when the entire AF area is irradiated, the photographer is warned and the auxiliary light emission is stopped.
(Step 14 (S14)): Determination of whether the auxiliary light projection position is within a predetermined range
The auxiliary light projection approximate position is detected based on the AE output. The irradiation position is detected by comparing the AE luminance output read before light emission with the AE luminance output read this time. If the auxiliary light irradiation position is within the predetermined range, it is possible to capture the AF area during subsequent main light emission. If it is not within the predetermined range, the auxiliary light target angle is reset (S9) based on the AE luminance output, and the calibration light emission (S10) is performed again.
(Step 15 (S15): Defocus amount estimation
When the auxiliary light projection position is not within the predetermined range, the following causes are considered.
[0057]
(A) AF is not in focus and the value of the subject distance encoder 53 is not at the subject distance. For this reason, the parallax correction is not appropriate, and the irradiation position is deviated.
[0058]
(B) There is a deviation in the angle between the optical axis 171 of auxiliary light and the optical axis 173 of the photographing optical lens 3 at the output center position of the auxiliary light angle detector 149.
[0059]
The approximate position to the subject can be calculated from the factor (a). From the auxiliary light irradiation angle θ, the height L of the auxiliary light projector 81, the in-screen auxiliary light confirmation position h2, the shooting magnification β, etc., the subject distance Rt is
Rt = (L−h2 / β) / tan θ
It is represented by However, the photographing magnification β is a function of the subject distance R and the focal distance f. The approximate subject distance Rt can be estimated from the auxiliary light confirmation position thus observed.
(Step 16 (S16)): Determining whether the defocus amount is within a predetermined range
The defocus amount is obtained from the subject distance estimated as described above and the value of the subject distance encoder 53 sent from the photographing lens 3. If the defocus amount is within the predetermined range, the steps after the auxiliary light target angle changing step (S9 to S13) are executed so that the irradiation position falls within the predetermined range in order to correct the factor (b). If the defocus amount is outside the predetermined range, the defocus amount is sent to the lens, AF driving is performed (S17), and the steps after the auxiliary light target angle changing step (S9 to S13) are executed again. Thus, by estimating the defocus amount, the approximate focus position can be specified even for a blurred image that cannot be detected by focus detection, so that the AF speed can be improved.
(Step 18 (S18)): Auxiliary light target angle change to the selected AFCCD
If the auxiliary light projection position is within the predetermined range in the determination routine of step 14, the auxiliary light target angle is changed toward the AF area sensor (CCD) based on the AF selection area information, and the change contents are instructed to the SBCPU 89. To do.
● (Step 19 (S19)): Auxiliary light SCAN
The auxiliary light is scanned and emitted in a predetermined pattern, and the auxiliary light is scanned at the AF sensor position in the AF selection area. An auxiliary light target angle is instructed to the SBCPU 89 as needed in accordance with the shape of an AF sensor (CCD) stored in a ROM (not shown) of the camera CPU 23. By instructing the scan pattern from the camera 1, it is possible to accurately detect the focus in accordance with the AF sensor.
● (Step 20 (S20)): AF signal processing
The subject is focused by a known focus detection process.
(Step 21 (S21)): Determining whether or not the defocusing is within a predetermined range
If the defocus amount is within the predetermined range, the AF is terminated and the auxiliary light control is stopped and terminated (END). When the focus amount is not within the predetermined range, the defocus amount is transmitted to the lens.
● (Step 22 (S22)): To defocus data lens
AF driving is performed according to the defocus amount. The camera 1 side again executes the steps (S5 to S21) after the AF area manual selection step.
[0060]
The above is the drive sequence at the time of manual selection.
[0061]
Next, the drive sequence (after step 23) at the time of automatic selection will be described with reference to the flowchart of FIG. Process steps equivalent to those in the manual selection flowchart of FIG. 8 are denoted by the same reference numerals, description thereof is omitted, and only different steps will be described.
● (Step 24 (S24)): To the AF selection area center
In the step corresponding to step S8 in FIG. 8, the first light projection position of the auxiliary light automatically selects the center of the AF area. Note that the first light projection position is not necessarily limited to the center of the AF area, but generally the center of the AF area is most easily understood. Henceforth, step group SG1 from S9 to S17 is the same as that at the time of manual selection. If the auxiliary light irradiation position is within the predetermined range in S14, the process proceeds to the next S25.
● (Step 25 (S25)): Change AF area
The AF area is automatically changed and step group SG2 from S9 to S13 is repeated. Thus, all the AF areas are scanned.
● (Step 26 (S26)): End of all areas SCAN
When all the AF areas have been scanned, the process proceeds to step 27.
● (Step 27 (S27)): AF area selection in which auxiliary light was confirmed by AE
All AF areas are scanned in the previous step, and among them, the AF area where the auxiliary light projection position has been confirmed by the AE sensor is selected and S18 to S20 are executed, and the SCAN of all areas with AE output is completed ( After S28), target AF area selection S29 is executed to select an AF area used for focus detection. Subsequent processing is the same as that for manual selection, and thus description thereof is omitted. Through the above steps, focus detection at the time of automatic selection is executed.
[0062]
The above-described embodiment is merely an example, and is not limited to the above-described configuration and shape, and can be appropriately modified and changed within the scope of the present invention.
[0063]
【The invention's effect】
As described above, according to the present invention, it is possible to provide an auxiliary light projector that projects auxiliary light suitable for a photographic lens mounted on a camera, and a camera system using the auxiliary light projector.
[Brief description of the drawings]
FIG. 1 shows a configuration diagram of a camera system equipped with an auxiliary light projector according to an embodiment of the present invention.
2 shows a schematic configuration example of focus detection means of the camera system shown in FIG.
3 shows a schematic block diagram of exposure amount detection means (AE detection) of the camera system shown in FIG. 1. FIG.
4 shows an enlarged schematic diagram of the AE sensor shown in FIG. 3;
FIG. 5 is a schematic configuration diagram of an auxiliary light projector according to an embodiment of the present invention.
FIG. 6 is an explanatory diagram of an auxiliary light projection position of the auxiliary light projection apparatus according to the embodiment of the invention.
FIG. 7 is a schematic diagram illustrating a projection state of auxiliary light in the finder.
8 is a flowchart showing an auxiliary light projection processing flow when AF area is manually selected in the camera system shown in FIG. 1;
FIG. 9 is a flowchart showing an auxiliary light projection process flow when the AF area is automatically selected in the camera system shown in FIG. 1;
[Explanation of symbols]
1 Camera
3 Shooting lens
5 Auxiliary light projector
6 Quick return mirror
7 Finder screen
9 Penta prism
11 Eyepiece
13 AE sensor
15 Submirror
17 Focus detection means
19 Shutter
21 Image sensor (film)
23 Camera CPU
25 AE signal processor
27 AF signal processor
29 Video signal processor
31 Auxiliary light target angle calculator
33 Display
35 Display controller
37 Half-press SW
39 Fully pressed SW
41 AF mode SW
43 AF mode selector SW
51 Focal length encoder
53 Distance encoder
55 Lens CPU
57 Focus lens group
59 Lens drive motor
61 Encoder
63 AF control unit
81 Emitter
83 Strobe flash unit (SB flash unit)
85 Auxiliary light controller
87 SB controller
89 SBCPU
101 Photometric lens
103 Transfer section
105 Voltage converter
107 Storage gate
109 Timing circuit
111 A / D converter
113 Storage time setting section
115 Luminance calculation unit
117 Exposure calculator
119 ROM in the lens
130 Housing
131 LED element
133 substrate
135 Collimator lens
137 Movable cylinder
139 Fixed aperture
141 Support member
143 depression
145 Elastic body
147 VCM for rotation
149 Angle detector
151 LED drive unit
153 Light emission amount calculation unit
155 Pulse width modulation driver (PWM driver)
157 LPF & Amplifier section
159 Tracking control unit
171 Auxiliary optical axis
173 Photo lens optical axis
175 subject

Claims (5)

被写体の輝度またはコントラストの高低に基づいて焦点検出用の補助光を前記被写体に投光し、前記被写体から反射された前記補助光をカメラの焦点検出手段に検出させる補助光投光装置において、
前記補助光を投光する補助光投光手段は、前記被写体を撮影する撮影レンズの情報に応じて、前記補助光の投光範囲を変更することを特徴とする補助光投光装置。
In an auxiliary light projector that projects focus detection auxiliary light on the subject based on the brightness or contrast level of the subject and causes the focus detection means of the camera to detect the auxiliary light reflected from the subject.
The auxiliary light projecting device for projecting the auxiliary light changes the light projection range of the auxiliary light according to information of a photographing lens for photographing the subject.
前記補助光投光手段は、回動可能に支持された補助光投光部と、
前記補助光投光部の回動量を検出する回動量検出部と、
前記補助光投光部を回動駆動するための駆動部と、
前記回動量検出部からの出力を基に前記駆動部を制御する制御部とからなり、前記制御部は、前記撮影レンズの情報に基づき、前記補助光投光部の振り角と最小回動ステップ量の少なくとも一方を変更することを特徴とする請求項1に記載の補助光投光装置。
The auxiliary light projecting means includes an auxiliary light projecting unit supported rotatably.
A rotation amount detection unit for detecting a rotation amount of the auxiliary light projecting unit;
A drive unit for rotationally driving the auxiliary light projecting unit;
The control unit is configured to control the driving unit based on an output from the rotation amount detection unit. The control unit, based on information of the photographing lens, has a swing angle and a minimum rotation step of the auxiliary light projecting unit. The auxiliary light projector according to claim 1, wherein at least one of the amounts is changed.
前記撮影レンズの情報は、前記撮影レンズの焦点距離情報または被写体距離情報の少なくとも一方であることを特徴とする請求項1または2に記載の補助光投光装置。The auxiliary light projector according to claim 1, wherein the information on the photographing lens is at least one of focal length information and subject distance information on the photographing lens. カメラと補助光投光装置とからなるカメラシステムにおいて、
前記カメラは、補助光目標角度演算部を有し、
前記補助光目標角度演算部は、被写体を撮影する撮影レンズの情報に基づき補助光投光位置を算出し、
前記補助光投光装置は、前記算出結果に基づき被写体に補助光を投光し、
前記補助光の反射光を前記カメラの焦点検出手段に検出させることを特徴とするカメラシステム。
In a camera system consisting of a camera and an auxiliary light projector,
The camera has an auxiliary light target angle calculation unit,
The auxiliary light target angle calculation unit calculates an auxiliary light projection position based on information of a photographing lens for photographing a subject,
The auxiliary light projector projects auxiliary light on a subject based on the calculation result;
A camera system that causes reflected light of the auxiliary light to be detected by a focus detection means of the camera.
前記撮影レンズ情報は、前記撮影レンズの焦点距離情報または被写体距離情報の少なくとも一方であることを特徴とする請求項4に記載のカメラシステム。The camera system according to claim 4, wherein the photographing lens information is at least one of focal length information and subject distance information of the photographing lens.
JP2003185113A 2003-06-27 2003-06-27 Auxiliary light projector and camera system using same Withdrawn JP2005017893A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003185113A JP2005017893A (en) 2003-06-27 2003-06-27 Auxiliary light projector and camera system using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003185113A JP2005017893A (en) 2003-06-27 2003-06-27 Auxiliary light projector and camera system using same

Publications (1)

Publication Number Publication Date
JP2005017893A true JP2005017893A (en) 2005-01-20

Family

ID=34184687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003185113A Withdrawn JP2005017893A (en) 2003-06-27 2003-06-27 Auxiliary light projector and camera system using same

Country Status (1)

Country Link
JP (1) JP2005017893A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010055969A (en) * 2008-08-29 2010-03-11 Nikon Corp Lighting system and imaging device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010055969A (en) * 2008-08-29 2010-03-11 Nikon Corp Lighting system and imaging device

Similar Documents

Publication Publication Date Title
US7405762B2 (en) Camera having AF function
JP4024404B2 (en) camera
JP2009163179A (en) Photographing device and method of controlling the same
JP2001004909A (en) Camera having automatic focusing device
JP2008191335A (en) Imaging apparatus and imaging system
JP2001255456A (en) Range-finding device
JP2007264299A (en) Focus adjustment device
JP2001141982A (en) Automatic focusing device for electronic camera
JP2009216743A (en) Image stabilizing camera
JP5211680B2 (en) Autofocus device, autofocus method selection method, and program
JP4432378B2 (en) Auxiliary light projector and camera system using the same
JP4865275B2 (en) Focus detection apparatus and imaging apparatus
JP2008191391A (en) Focusing mechanism, and camera
JP2005017922A (en) Auxiliary light projector and camera system using same
JP2005017891A (en) Auxiliary light projector and camera system using the
JP2005142837A (en) Adjusting device for camera
JP2005017893A (en) Auxiliary light projector and camera system using same
JP2005017916A (en) Auxiliary light projecting device and camera system using the same
JP2005221641A (en) Imaging device
JP2006078734A (en) Photographing apparatus
JP2006171147A (en) Auxiliary light device for focus detection of camera
JP2019139031A (en) Imaging apparatus and method for controlling the same
JP2006017854A (en) Imaging apparatus and flash light emitting device
JP5115324B2 (en) Focus detection apparatus and imaging apparatus
JP2001141986A (en) Electronic camera and automatic focusing device for electronic camera

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060905