JP2005017921A - Auxiliary light projecting device and camera system using the same - Google Patents

Auxiliary light projecting device and camera system using the same Download PDF

Info

Publication number
JP2005017921A
JP2005017921A JP2003185325A JP2003185325A JP2005017921A JP 2005017921 A JP2005017921 A JP 2005017921A JP 2003185325 A JP2003185325 A JP 2003185325A JP 2003185325 A JP2003185325 A JP 2003185325A JP 2005017921 A JP2005017921 A JP 2005017921A
Authority
JP
Japan
Prior art keywords
auxiliary light
camera
light
information
focus detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003185325A
Other languages
Japanese (ja)
Other versions
JP4432378B2 (en
Inventor
Shigeyuki Uchiyama
重之 内山
Hiroyuki Iwasaki
宏之 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2003185325A priority Critical patent/JP4432378B2/en
Publication of JP2005017921A publication Critical patent/JP2005017921A/en
Application granted granted Critical
Publication of JP4432378B2 publication Critical patent/JP4432378B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an auxiliary light projecting device projecting appropriate auxiliary light to a photographic lens attached to a camera, and a camera system using the same. <P>SOLUTION: In the auxiliary light projecting device 5 projecting auxiliary light for detecting a focus to a subject based on the level of the luminance or the contrast of the subject and detecting the auxiliary light reflected from the subject by the focus detection means 17 of the camera 1, the focus detection means 17 is constituted of a line sensor 181, and the auxiliary light is made to perform scanning to cross with the arranging direction of the line sensor 181 several times or made to perform scanning while flickering in the arranging direction of the line sensor 181. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、自動焦点検出用の補助光投光装置とこれを用いたカメラシステムに関する。
【0002】
【従来の技術】
従来、カメラの自動焦点検出に使用される補助光投光装置では、被写体が暗い場合や、コントラストが低い場合には、被写体のコントラストを確保するために、投光スポットを被写体上で走査する補助光投光装置がある(例えば、特許文献1参照。)。
【0003】
【特許文献1】
特開平10−90592号公報
【0004】
【発明が解決しようとする課題】
撮影レンズが交換可能なカメラの場合、カメラに装着されている撮影レンズの焦点距離により撮影画角が異なる。一般的に、交換レンズの焦点距離は、数mm〜数百mmになり、これに伴い撮影画角も変化する。従来の補助光投光装置では、望遠レンズの撮影画角に合わせて焦点検出用の補助光の照射角度を決めると、広角レンズが装着された際、広角レンズの撮影画角全ての自動焦点検出エリアに補助光を投光する事ができなくなるという問題がある。
【0005】
また、広角レンズの撮影画角に合わせて焦点検出用の補助光の照射角度を決めると、望遠レンズが装着された際、補助光の投光角度の分解能が悪くなり、望遠レンズの撮影画角全てに亘って補助光の投光角度の細かな制御が困難であるという問題がある。
【0006】
本発明は、上記問題に鑑みてなされたものであり、カメラに装着されている撮影レンズに好適な補助光を投光する補助光投光装置とこれを用いたカメラシステムを提供することを目的とする。
【0007】
【課題を解決するための手段】
上記目的を達成するために、本発明では、被写体の輝度またはコントラストの高低に基づいて焦点検出用の補助光を前記被写体に投光し、前記被写体から反射された前記補助光をカメラの焦点検出手段に検出させる補助光投光装置において、前記焦点検出手段は、ラインセンサから構成され、前記補助光は、前記ラインセンサの並び方向に対して複数回横断するように走査されるか、または前記ラインセンサの並び方向に沿って点滅しながら走査されることを特徴とする補助光投光装置を提供する。
【0008】
また、本発明にかかる補助光投光装置では、前記補助光の横断間隔または点滅間隔は、前記ラインセンサの画素ピッチに応じてそれぞれ変更することが好ましい。
【0009】
また、本発明では、カメラと補助光投光装置とからなるカメラシステムにおいて、前記カメラは、補助光目標角度演算部と焦点検出手段情報を有し、前記補助光目標角度演算部は、前記カメラに装着されている撮影レンズからの撮影レンズ情報に基づき補助光投光位置を算出し、前記補助光投光装置は、前記算出結果および前記焦点検出手段情報に基づき連続光または点滅光からなる補助光を被写体に投光し、前記被写体からの反射光を前記カメラの焦点検出手段に検出させることを特徴とするカメラシステムを提供する。
【0010】
また、本発明にかかるカメラシステムでは、前記撮影レンズ情報は、前記撮影レンズの焦点距離情報または被写体距離情報の少なくとも一方であることが好ましい。
【0011】
【発明の実施の形態】
以下、本発明にかかる実施の形態に付いて図面を参照しつつ説明する。
【0012】
図1は、本発明の実施の形態にかかる補助光投光装置を搭載したカメラシステムの構成図を示す。図2は、図1に示すカメラシステムの焦点検出手段の概略構成例を示す。図3は、図1に示すカメラシステムの露光量検出手段(AE検出)の概略構成図を示す。図4は、図3に示すAEセンサーの拡大概略図を示す。図5は、本発明の実施の形態にかかる補助光投光装置の概略構成図を示す。図6は、本発明の実施の形態にかかる補助光投光装置の補助光投光位置の説明図を示し、図7は、ファインダ内での補助光の投光状態を示す概略図である。図8は、本発明の実施の形態にかかる補助光の投光状態を示す概略図である。図9は、図1に示すカメラシステムにおけるAFエリア手動選択時の補助光投光処理フローチャートである。図10は、図1に示すカメラシステムにおけるAFエリア自動選択時の補助光投光処理フローチャートである。
【0013】
図1において、本発明の実施の形態にかかるカメラシステムは、カメラ本体1(以後、カメラと記す)とカメラ1に装着された交換可能な撮影レンズ3と被写界に対して焦点検出(AF検出)に用いる補助光を投光する補助光投光装置5とから構成されている。
【0014】
不図示の被写体からの光は、撮影レンズ3を介してクイックリターンミラー6で反射されてファインダスクリーン7上に結像し、ペンタプリズム9および接眼レンズ11を介して撮影者に観察可能となる。また、上記反射光の一部はAEセンサ13に導かれ入射光の光量が測定される。
【0015】
クイックリターンミラー6の中央部は、ハーフミラーとなっており、ここを通過した光はサブミラー15で反射されて焦点検出手段17に入射される。
【0016】
クイックリターンミラー6は、不図示の駆動部で駆動され、露光時に光軸から跳ね上げられ、シャッタ19が開閉されて被写体からの光が全てフィルムまたは撮像素子21に導かれる(以後の説明は撮像素子を用いた場合について説明する)。
【0017】
カメラ1に内蔵されているカメラCPU23には、AEセンサ13の信号を処理するAE信号処理部25、焦点検出手段17の信号を処理するAF信号処理部27、撮像素子21からの画像信号を処理する映像信号処理部29、後述する補助光目標角度演算部31、およびファインダ内にAFエリアを表示する表示部33を制御する表示制御部35等が含まれている。
【0018】
また、カメラCPU23には、カメラ1のレリーズボタンの半押しSW37、全押しSW39やカメラ1に設けられているAFモードSW41、およびAFセレクタSW43等からの信号が入力され、所定のシーケンス制御が行われる。
【0019】
半押し状態では、被写体の明るさをAEセンサ13で検出して最適露光量の演算をすること、および焦点検出手段17による焦点検出が行われ被写体への合焦動作が撮影レンズ3を駆動して行われる。全押し状態で、クイックリターンミラー6が光軸から跳ね上げられ、シャッタ19が開閉されて撮像素子21に被写体像が露光される。
【0020】
AFモードSW41は、マニュアル、シングル、コンティニュアス等のAFモード選択を行う。マニュアルモードが選択された場合には、補助光の発光および焦点検出機能は働かない。シングルモードを選択すると、レリーズボタンの半押し動作に連動して後述する一連の焦点検出動作を行う。コンティニュアスモードを選択すると、レリーズボタンの半押し動作中、後述する焦点検出動作を続ける。
【0021】
AFセレクタSW43は、AFエリアが撮影者による手動選択となっているか、自動選択となっているか、そして手動選択の場合どのAFエリアを選択するかを撮影者が入力するものである。この撮影者のAFエリア選択情報を基に、表示制御部35がファインダ内の表示部33にAFエリアの表示を行う。
【0022】
また、カメラCPU23は、撮影レンズ3や補助光投光装置5と、不図示の接点を介して各種情報の伝達が相互に行われる。
【0023】
撮影レンズ3は、レンズの焦点距離情報を得るための焦点距離エンコーダ51と被写体までの現在距離値を得るための被写体距離エンコーダ53を有し、各エンコーダの数値はレンズCPU55を介してカメラCPU23に送られる。また、レンズCPU55には、撮影倍率βを記憶している不図示のROMを有している。そして、焦点距離エンコーダ51と被写体距離エンコーダ53の数値を基に撮影倍率βが算出されて、その値はカメラCPU23に伝達される。
【0024】
撮影レンズ3は、カメラCPU23からの焦点検出手段17に基づくデフォーカス情報により、フォーカスレンズ群57がレンズ駆動モータ59(例えば、公知の超音波モータ等)により駆動されて合焦動作を行う。駆動モータ59の回転量はエンコーダ61で検出される。エンコーダ61には、例えば、MR(磁気抵抗効果)センサ等が用いられる。エンコーダ61の信号はレンズCPU55内のAF制御部63に送られる。AF制御部63は、カメラCPU23から送られるデフォーカス情報を基に、フォーカスレンズ群57の目標駆動量を算出し、レンズ駆動モータ59を制御して目標位置にフォーカスレンズ群57を移動させる。このようにして、合焦のためのフィードバック制御が行われる。なお、撮影レンズ3は、防振補正機構を有するレンズであっても良い。
【0025】
補助光投光装置5は、回動可能に支持されている補助光の投光部81と、被写体の明るさが不足している際に発光するストロボ発光部(以後、SB発光部と記す)83を有している。また、投光部81を制御する補助光制御部85とSB発光部83の発光量等を制御するSB制御部87を含むSBCPU89を備えており、SBCPU89とカメラCPU23とは、不図示の接点を介して情報の伝達を行っている。
【0026】
図2は、焦点検出手段17のAFセンサエリア(Af検出エリア)の一例を示している。本実施の形態では、ファインダの中心部に十字センサを配置したエリア1、中央部の上下領域には、横センサを配置したエリア2、およびエリア4、そして中央部の左右領域には縦センサを配置したエリア3、およびエリア5の計5箇所の検出エリアが設けられている。各センサのサイズは、幅が約1mm、長さが2〜5mm程度である。なお、AFセンサエリアの配置は、カメラ1の設計により適宜変更される。
【0027】
図3は、AE検出系とその制御を説明するものである。撮影レンズ3を通過した光束は、クイックリターンミラー6、ファインダスクリーン7、ペンタプリズム9、接眼レンズ11を通って撮影者の目に到達する。一方、ファインダスクリーン7によって拡散された光束の一部は、ペンタプリズム9、測光用レンズ101を通して受光素子13へ到達する。受光素子13は、例えばCCD素子のような蓄積型受光素子である。
【0028】
AE検出系は、受光蓄積部(受光素子)13と、転送部103と、電圧変換部105と、蓄積ゲート部107、および各種制御部とから構成されている。受光蓄積部13は、図4に示すように横20個、縦12個のマトリクス状に複数の受光セグメントが配置されており、それぞれのセグメントで発生した電荷を蓄積する。また、受光蓄積部13は、ちょうど撮影画面に相当する被写界を測光するようになっている。図4に、測光領域の分割状態を被写界上に照らし合わせたときの状態を示す。転送部103へは、タイミング回路109から電荷の転送に必要なクロックパルスが供給されており、受光蓄積部13で蓄積した電荷を1画素ずつ電圧変換部105へ転送する。電圧変換部105では、送られてきた240個の画素の電荷信号を同数の電圧レベル値に変換して出力端子からA/D変換部111へ出力する。蓄積ゲート部103は、蓄積時間設定部113からの信号を受けて受光蓄積部13に電荷蓄積の開始と終了を指令するゲートであり、このゲートにパルス信号を送る事によって電荷蓄積の開始及び終了を行う。蓄積時間設定部113では、輝度算出部115及び露出演算部117からの情報を基に、次回蓄積時における最適な蓄積時間を演算して蓄積電荷量の調整を行う。A/D変換部111は、受光素子13からの電圧信号をコンピュータが認識可能な数値信号に変換し、輝度算出部115へ出力する。輝度算出部115では、レンズ内ROM119から入力した撮影レンズ3に関する情報と、蓄積時間設定部113から入力した蓄積時間tと、A/D変換部111からの信号V(m,n)とを用いて、240個の輝度値BV(m,n)を以下に示す式によって求める。
【0029】
BV(m,n)=log(V(m,n)・k(m,n)/t)/log(2)
ただし、BV(m,n)は、図4におけるマトリクス状の複数の測光領域のそれぞれ左からm番目、下からn番目の領域を示している。右辺において2を底とする対数をとっているのは、アペックス方式に基づく輝度値に変換するためであり、BV(m,n)の単位は(EV)もしくは(BV)である。k(m,n)は、装着された撮影レンズ3における各測光領域に固有の補正係数であり、レンズ内ROM119から入力した開放F値、射出瞳位置、ビグネッティング情報等から実験またはシミュレーションにより求める。
【0030】
露出演算を行う際は、露出演算部117が、輝度算出部115から240個の輝度信号を受けて露出演算を行い、適正露出値を算出する。
【0031】
このようにして、本発明の実施の形態にかかる補助光投光装置を搭載したカメラシステムが構成されている。
【0032】
次に、本実施の形態にかかる補助光投光装置について図5に基づき詳説する。
【0033】
図5において、補助光の発光部81は、円筒状のハウジング130内に、補助光を発光するLED素子131(IREDまたはLDを用いても良い)を保持する基板133が一端部に固定され、他端部にはコリメータレンズ135が固定されて形成された可動筒137が設けられている。LED素子131とコリメータレンズ135との間には発光光の光束を制限する固定絞り139が設けられている。可動筒137外周の下部には、可動筒137を支持するために、ハウジング130に支持された先端が尖っている針状の支持部材141に当接する窪み部143が設けられている。この窪み部143を支点として、可動筒137は上下左右に可動自在に支持されている。支持部材141が当接する窪み部143の略真上部分には、ハウジング130に支持され可動筒137を支点方向に押圧する弾性体145が設けられ、振動等によって可動筒137が支点から外れないように構成されている。可動筒137はその重心付近で支持部材141と弾性体145で支持されハウジング130内で上下左右に回動可能に保持されている。
【0034】
可動筒137の上下左右への回動は、可動筒137の外周の発光素子131側に設けられたボイスコイルモータ(VCM)147によって行われる。図中のVCM147は上下方向(ピッチング)の回動用であるが不図示の左右方向(ヨーイング)の回動用のVCMも設けられている。
【0035】
可動筒137の回動量は、可動筒137の外周部のLED素子131の側で、VCM147に対向する位置に設けられた角度検出部149によって上下方向のピッチング量が検出される。不図示の左右方向のヨーイング量検出部と駆動用のVCMは、VCM147と角度検出部149のなす軸を含む平面内でこの軸に略垂直な方向で可動筒137の外周部に対向して設けられている。
【0036】
LED素子131の発光制御は、LED駆動部151により、LED素子131の駆動電流制御を行うことにより発光量のコントロールを行う。
【0037】
SBCPU89内の補助光制御部85には、LED駆動部151に発光量の指示を行う発光量演算部153が設けられ、SBCPU89を介してカメラCPU23と情報の伝達を行い適切な発光量を演算し、LED駆動部151に適切な発光量の指示を行う。
【0038】
可動筒137の回動駆動用のVCM147は、パルス幅変調ドライバ(PWMドライバ)155からDuty制御された回動駆動用の電流が供給され、可動筒137が適切に駆動される。
【0039】
可動筒137の回動に伴い、角度検出部149で検出された角度信号は、LPF&アンプ部157を介して補助光制御部85の追従制御部159に送られる。角度検出部149の電圧出力から高周波数ノイズ成分を排除するために設けられたLPFのカッオフ周波数は追従制御部159の安定性を考慮して適切な値に設定される。また、アンプ部では、後述する角度検出部149のダイナミックレンジ(検出幅)の変更に伴い、アンプゲインを変更できる構成となっている。追従制御部159は、カメラCPU23から送られてきた、後述する目標角度演算結果に基づき可動筒137を駆動するための制御演算を行う。角度検出部149の出力と目標角度演算部31からの目標角度より公知のPID制御等で演算を行う。追従制御演算出力はPWMドライバ155に駆動Dutyとして出力される。
【0040】
補助光目標角度演算部31は、レンズCPU55から取得した、撮影レンズ3の焦点距離情報、撮影倍率情報、被写体距離情報と、カメラCPU23で取得したAFモードSW情報、AFセレクタ情報、AE輝度信号情報、AFデフォーカス情報と、SBCPU89から取得した投光部81の高さL(図6参照)情報等とを基に、補助光の投光目標角度を演算する。演算結果はSBCPU89内の補助光制御部85に送られる。
【0041】
上述のような構成と、フィードバック制御によって、撮影レンズ3の特性に応じて補助光を目標の位置に投光することができ、補助光から出射される光束を絞り、必要なエリアにのみ照射する事で投光効率をあげ、消費電力の低減効果のある補助光投光装置5を得ることができる。
【0042】
次に、補助光目標角度演算に関して詳説する。
【0043】
カメラ1に装着されている撮影レンズ3の焦点距離情報、撮影倍率(β)情報、被写体距離情報、AF選択エリア情報、を基に、補助光の投光目標角度を演算する。カメラ1は、図2に示したAFエリア配置情報を有している。図2では焦点検出領域が5ヶ所。各領域はエリア1、エリア2・・・エリア5と識別されている。
【0044】
焦点検出センサの大きさは35mmフィルムカメラの場合、画面大きさに換算すると長手方向が2〜5mm、幅方向が1mm弱程度である。補助光の投光目標角度を演算するために、焦点検出エリアの画面内座標とその検出方向を定義する必要がある。図2において、画面中央部を原点(0、0)とし、各エリアの両端の座標値をAFエリア配置情報としてカメラCPU23に記憶しておく。座標スケールは、検出領域幅の半分程度とし、前述の様に幅1mmの場合、0.5mm単位となる。例えば、図2においてエリア2の配置が画面中央に対し、高さ6mm、幅4mmで画面横方向(縦コントラスト検出)の場合、配置情報は(−8、12)、(8、12)、Hと表される。エリア1の場合、検出方向が2方向あるため配置情報も縦方向と横方向双方の情報を有することになる。このAFエリア配置情報を基に補助光の振り角を演算する。
【0045】
図6(a)に示すように、補助光投光装置5からの補助光の光軸171を撮影レンズ3の光軸173と略平行な状態で出射すると、被写体175の被写体距離Rが近い場合パララックスの影響で所望の位置に補助光を照射する事が出来なので、被写体175までの距離に応じて補助光の投光角度θを補正する必要がある。補正には撮影レンズ3の光軸173からの補助光出射高さLが必要となる。補助光出射高さLは、カメラ1の接点と撮影レンズ3の光軸173までの高さCLと、補助光投光装置5の接点から投光部81の光軸171までの高さSLとの和となる。CLはカメラCPU23が、SLはSBCPU89がその情報をそれぞれ有している。撮影倍率βおよび撮影距離Rの情報は、レンズCPU55から、また、SLの情報はSBCPU89からカメラCPU23に通信される。これらの情報を基に、補助光目標角度演算部31で補助光の投光角度θが算出される。
【0046】
撮影者が図6(b)に示すAFエリアで、例えばエリア1を選択した場合、初期出射角度θini(1)は、図6(a)より、
θini(1) = Arctan(L/R)、(R’≒R)
で与えられる。また、エリア2を選択した場合、初期角度θini(2)は、撮影倍率βとエリア配置情報(h2)を用いて、
θini(2) = Arctan((L−1/β*h2)/R)、(R’≒R)で与えられる。なお、R’とRは略等しいので上記式でRとしても計算上問題はない。
【0047】
ここでは、上下(ピッチング)方向の初期出射角度θiniについて述べたが左右(ヨーイング)方向の初期出射角度についても同様に演算する。
【0048】
上記の演算結果により、カメラ1に装着されている撮影レンズ3に応じて補助光の投光位置が最適化されるため、図7に示すように常に被写体175上の目標とするAFエリア(例えば、エリア1(白抜き矢印))に補助光を投光することが可能となる。
【0049】
さらに、本実施の形態にかかる補助光投光装置5では、補助光の走査範囲と最小走査ステップ量が、カメラ1に装着された撮影レンズ3の焦点距離等の情報に基づいて変更される。以下、詳述する。
【0050】
カメラ1に装着された撮影レンズ3の焦点距離により撮影画角が変わるため、焦点検出用の補助光の振り角(走査範囲)を変更する。焦点距離が長い程、画角は狭くなり、例えば35mmシステムにおいて、焦点距離300mmの場合、対角で約8度程度となる。一方、焦点距離が短い程、画角は広くなり、例えば焦点距離18mmの場合、対角で約100度になる。このため画角に応じて補助光の振り角を最適化する必要がある。また、画角が狭いときには、補助光の振り角は少なくて済むが振り角に要求される精度(走査ステップ)は細かくなる。画角が広いと、補助光の振り角は大きくなるが、要求される精度は低くても良くなる。振り角の制御精度は、補助光の角度検出部149に依存する。仮に角度検出部149の最大振り角を100度とした場合、10bitA/D回路で量子化すると制御精度はおよそ0.1度/LSBとなり、補助光振り角の精度も0.1deg以上求めることは難しくなる。このまま、焦点距離300mmの撮影レンズで用いた場合、300mm×tan0.1degより、像面分解能は0.5mm程度となる。これは、補助光を最小間隔が0.5mm間隔でしか振ることができないこととなる。
【0051】
一方、像面換算した際のAFセンサCCDの幅は、前述のように、幅1mm程度しかなく、補助光の走査ステップが0.5mm間隔では分解能が明らかに不足している事が判る。
【0052】
本実施形態では、撮影レンズ3から随時送られてくる焦点距離情報や被写体距離情報に応じて補助光の振り角と最小走査ステップ量を変更するように角度検出出力149および可動筒137の回動用VCM147の最小回動ステップ量も変更する。
このように、撮影レンズ3に応じて最大振り角と最小走査ステップ量とを変更することで、撮影レンズ3に適した焦点検出用の補助光を被写体に投光することが可能となる。
【0053】
振り角は、焦点距離情報を基に画角を演算し、例えば、演算された画角の2倍を振り角(ダイナミックレンジ)とし、角度検出部149後段に設けられたLPF&アンプ部157のアンプゲインを変更する。また、LPF&アンプ部157のアンプゲインの変更に伴い追従制御部159のフィードバックゲインも変更する。以上のアンプゲインとフィードバックゲインの変更により、撮影レンズ3の焦点距離(画角)に応じた適切なダイナミックレンジと最小走査ステップ量(分解能)の確保が可能となり、最適な補助光の照射が可能となる。
【0054】
次に、焦点検出エリアに対する補助光の走査に付いて説明する。
【0055】
図7において、エリア2およびエリア4の焦点検出センサ(例えば、CCD素子)181(以後、ラインセンサと記す)は受光素子181aが横方向に複数個並べて形成され、エリア3およびエリア5のラインセンサは縦方向に受光素子181aを複数個並べて形成されている。中央のエリア1は縦方向と横方向に受光素子181aを複数個並べて十字状のラインセンサが形成されている。
【0056】
図8は、本実施の形態における補助光の走査状態の例を示す図である。焦点検出エリア(例えば、図7のエリア2)に配置されているラインセンサ181上を、補助光を点滅しながら図中、左側から右側に走査した場合(点滅走査)183と、補助光を連続的に発光させながら、ラインセンサ181を横断するように走査した場合(波型走査パターン)185の例を一つの図中に重ねて示している。
【0057】
点滅走査は、補助光を点滅させながらラインセンサ181上を走査することによって、被写体自身にコントラスト差がない場合でも、コントラスト差を発生し、焦点検出が可能となる。焦点検出に適した補助光の点滅間隔は、受光素子181aの配列ピッチによって異なり、細かいピッチの場合には点滅間隔を短くすることで、ラインセンサ181に適した補助光となる。補助光の点灯間隔、または消灯間隔は、受光素子181aのピッチの3から6倍が好適である。また、偽検出信号の発生を回避するために、点灯間隔を非周期的にしても良い。
【0058】
また、補助光を連続的に発光させ、焦点検出センサ181の複数箇所を横断するように補助光を走査する場合、図8に示すように、ラインセンサ181の受光素子181aに対して、補助光が当たる場所と当たらない場所とでコントラスト差が発生し、焦点検出が可能となる。
【0059】
上述のような補助光の走査制御は、カメラCPU23からのラインセンサ181の配置情報に基づき、SBCPU89がLED駆動部151およびPWMドライバ155をシンクロさせて駆動することによって、目標のラインセンサ上に補助光を点滅走査または波型走査させることが可能となる。
【0060】
次に、本発明にかかる補助光投光装置を用いたカメラシステムにおける、焦点検出ステップに関して図9、図10を用いて詳説する。
【0061】
撮影者が、カメラシステムの電源をON状態した際、カメラCPU23では、焦点距離情報、被写体距離情報等の各種情報を入手し待機する。
●(ステップ1(S1)):AE出力読み込み
撮影者が被写体に対して撮影体勢をとりレリーズボタンを半押しON状態にすると、AE検出素子13で被写体からの光量を検出し、カメラCPUに読み込む。
●(ステップ2(S2)):補助光要否判定
ステップS1の情報を基に、補助光の投光が必要かどうかの判定を行う。補助光不要時は補助光発光シーケンスを終了(END)して不図示の焦点検出シーケンスを実行する。
●(ステップ3(S3)):AE配置情報受け取り
補助光の投光が必要なほど輝度またはコントラストが不足している場合には、補助光投光装置のSBCPU89はカメラCPU23からAF検出エリア配置情報を受け取る。AF検出エリアは、カメラにより異なっているため、AF検出エリア配置情報を受け取ることによりAF選択エリアに対し、的確に補助光を照射することが可能となる。また、AF検出エリア配置情報には、AF検出エリアが縦に配置されているか、横に配置されているかの情報も含む。これにより、AF補助光の照射方向が変えられる。AF検出エリアが縦方向に配置されている場合には、AF検出エリア上で横縞を作る様に補助光を照射し、AF検出エリアが横方向に配置されている場合には縦縞を作るように補助光を照射するように制御する。
●(ステップ4(S4)):AF補助光駆動制御開始
角度検出部149からの出力に基づき、補助光を目標位置に投光するフィードバック制御を行う。補助光の投光目標角度を前述の初期位置θiniにセットし、補助光の投光位置の定位置制御を開始する。この時点での初期位置θiniは、補助光角度検出部149の中心位置で行われる。
●(ステップ5(S5)):AFエリア手動選択か否かの判定
AFエリア選択が手動になっているか、自動になっているかを読込み、自動になっている場合には、後述する自動選択時のフロー(S23以降)の処理を行う。ここでは手動選択の場合について説明する。
●(ステップ6(S6)):焦点距離情報、被写体距離情報の読み込み
カメラCPUは、撮影レンズ3に設けられた焦点距離エンコーダ51、被写体距離エンコーダ53からレンズCPU55を介してそれぞれの情報を取得する。
● (ステップ7(S7)):角度検出部149のダイナミックレンジ設定
カメラ1に装着されている撮影レンズ3の焦点距離により撮影画角が変わり、これに伴い補助光の振り角および最小走査ステップ量が変化する。撮影レンズ3の焦点距離に応じて角度検出部149後段に設けられているLPF&アンプ部157のダイナミックレンジを最適な値に設定する。
●(ステップ8(S8)):AF選択エリアの読み込み
撮影者によって選択されたAF選択エリア情報をカメラCPU23に読み込む。
●(ステップ9(S9)):補助光目標角度変更
焦点距離エンコーダ51の出力と距離エンコーダ53の情報及びAF選択エリア情報を基に補助光目標角度演算部31により補助光目標角度が算出されSBCPU89に伝達されて、補助光の投光角度が設定される。被写体距離エンコーダ53の出力はパララックス補正に用いられる。最初にこの処理を行う時点ではフォーカスは合っていない場合が通常であり、この処理は、回数を重ねる毎に確からしさを増す。AF選択エリアに向けて目標角度を変更する理由は、選択エリア付近には被写体がある可能性が高いからである。
●(ステップ10(S10)):キャリブレーション発光
ステップ9で補助光の投光角度を目標角度に設定した後、キャリブレーション発光を行う。キャリブレーション発光ではAE輝度値情報から補助光の大まかな照射位置及び発光量の調整を行う。発光時間は、AE素子蓄積時間を基に設定する。
●(ステップ11(S11)):AE出力読み込み
カメラCPU23は、ステップS10のキャリブレーション発光後、AEセンサー13からのAE輝度値情報を取得する。
●(ステップ12(S12)):補助光確認
S11のAE輝度値情報から補助光が所定の範囲内に投光されている否かを確認する。発光前に読み込んだAE輝度値情報と比較して補助光と思われる輝度出力が得られたか確認する。
●(ステップ13(S13)):異なるAFエリアへ目標角度変更
ステップS11で発光前のAE輝度出力とキャリブレーション発光後のAE輝度出力に差が見られない場合、そのAF選択エリアに被写体が無いか、あるいは、そのAF選択エリアの被写体が遠いなどの原因が考えられる。その場合は選択されたAFエリアと異なるエリアに目標角度を変えて再度、キャリブレーション発光を行う。全AFエリアに照射しても補助光出力が得られない場合、撮影者に警告を行い、補助光発光を取り止める。
●(ステップ14(S14)):補助光投光位置所定範囲内かの判定
AE出力を基に補助光投光概略位置を検出する。発光前に読み込んだAE輝度出力と今回読み込んだAE輝度出力を比較して照射位置の検出を行う。補助光照射位置が所定範囲内に有れば、後の本発光時にAFエリアを捉えることが可能となる。所定範囲内に無い場合には、AE輝度出力を基に補助光目標角度の再設定(S9)を行い、再度キャリブレーション発光(S10)を行う。
●(ステップ15(S15):デフォーカス量推測
補助光投光位置が所定範囲内に無い場合は、以下の原因が考えられる。
【0062】
(a) AF合焦しておらず、被写体距離エンコーダ53の値が被写体距離にあっていない。このため、パララックス補正が適当ではなく照射位置にずれが生じている。
【0063】
(b) 補助光角度検出部149出力中心位置での補助光の光軸171と撮影光レンズ3の光軸173との角度にずれが有る。
【0064】
(a)の要因より被写体までの概略位置を演算する事が可能となる。補助光照射角度θ、補助光投光部81の高さL、画面内補助光確認位置h2、撮影倍率β等から、被写体距離Rtは、
Rt = (L−h2/β)/tanθ
で表される。但し、撮影倍率βが被写体距離Rと焦点距離fとの関数である。この様に観測された補助光確認位置から概略の被写体距離Rtを推測することができる。
●(ステップ16(S16)):デフォーカス量所定範囲内か否かの判定
前述の様に推測した被写体距離と撮影レンズ3から送られた被写体距離エンコーダ53の値からデフォーカス量を求める。デフォーカス量が所定範囲内であれば、前述(b)の要因を修正するため照射位置が所定範囲に収まるように、補助光目標角度変更ステップ以降の各ステップ(S9〜S13)を実行する。デフォーカス量が所定範囲外であれば、レンズにデフォーカス量を送り、AF駆動を行い(S17)、補助光目標角度変更ステップ以降の各ステップ(S9〜S13)を再度実行する。この様にデフォーカス量の推測により、焦点検出で捉えきれないボケ像に対しても合焦概略位置が特定出来きるため、AF速度を向上することが可能となる。
●(ステップ18(S18)):選択されたAFCCDへ補助光目標角度変更
ステップ14の判断ルーチンで補助光投光位置が所定範囲内にある場合、AF選択エリア情報を基にAFエリアのセンサ(CCD)に向けて補助光目標角度を変更し、変更内容をSBCPU89に指示する。
●(ステップ19(S19)):補助光SCAN
補助光を所定のパターンでスキャン発光し、AF選択エリアのAFセンサー位置に補助光を走査する。カメラCPU23の不図示のROMに記憶してあるAFセンサー(CCD)の形状に合わせて補助光目標角度を随時SBCPU89に指示する。カメラ1からスキャンパターンを指示することにより、AFセンサーに合わせて的確な焦点検出が可能となる。
●(ステップ20(S20)):AF信号処理
公知の焦点検出処理により被写体への合焦を行う。
●(ステップ21(S21)):デフォーカス所定範囲か否かの判定
デフォーカス量が所定範囲内であればAF終了であるため補助光制御を停止して終了する(END)。でフォーカス量が所定範囲に無い場合には、デフォーカス量をレンズに伝達する。
●(ステップ22(S22)):デフォーカスデータレンズへ
デフォーカス量に応じてAF駆動を行う。カメラ1側は再度AFエリア手動選択ステップ以降の各ステップ(S5〜S21)を実行する。
【0065】
以上が手動選択時の駆動シーケンスである。
【0066】
続いて、自動選択時の駆動シーケンス(ステップ23以降)に付いて図10のフローチャートにより説明する。図9の手動選択時のフローチャートと同等の処理ステップには同じ符号を付し説明を省略し、異なるステップに関してのみ説明する。
●(ステップ24(S24)):AF選択エリア中央へ
図9のステップS8に相当するステップで、補助光の最初の投光位置がAFエリア中央を自動的に選択するステップである。なお、最初の投光位置は必ずしもAFエリア中央に限られないが、一般にAFエリア中央が最も位置が分かりやすい。以後、S9からS17までのステップグループSG1は手動選択時と同様である。S14で補助光照射位置が所定範囲内に有れば、次のS25に進む。
●(ステップ25(S25)):AFエリアを変更
自動的にAFエリアを変更してS9からS13のステップグループSG2を繰り返す。こうして全てのAFエリアについてスキャンを行う。
●(ステップ26(S26)):全エリアSCAN終了
全てのAFエリアのスキャンが完了したら、ステップ27に進む。
●(ステップ27(S27)):AEにより補助光が確認できたAFエリア選択前のステップで全AFエリアについてスキャンし、このうちAEセンサーにて補助光の投光位置が確認できたAFエリアを選択しS18からS20を実行し、全てのAE出力ありエリアのSCANが終了(S28)したら、ターゲットAFエリアの選択S29を実行し焦点検出に用いるAFエリアを選択する。以降は、手動選択と同様の処理となるので説明を省略する。以上のステップによって、自動選択時の焦点検出が実行される。
【0067】
なお、上述の実施の形態は例に過ぎず、上述の構成や形状に限定されるものではなく、本発明の範囲内において適宜修正、変更が可能である。
【0068】
【発明の効果】
以上述べたように、本発明によれば、カメラに装着されている撮影レンズに好適な補助光を投光する補助光投光装置とこれを用いたカメラシステムを提供することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態にかかる補助光投光装置を搭載したカメラシステムの構成図を示す。
【図2】図1に示すカメラシステムの焦点検出手段の概略構成例を示す。
【図3】図1に示すカメラシステムの露光量検出手段(AE検出)の概略構成図を示す。
【図4】図3に示すAEセンサーの拡大概略図を示す。
【図5】本発明の実施の形態にかかる補助光投光装置の概略構成図を示す。
【図6】本発明の実施の形態にかかる補助光投光装置の補助光投光位置の説明図を示す。
【図7】ファインダ内での補助光の投光状態を示す概略図である。
【図8】本発明の実施の形態にかかる補助光の投光状態を示す概略図である。
【図9】図1に示すカメラシステムにおけるAFエリア手動選択時の補助光投光処理フローを示すフローチャートである。
【図10】図1に示すカメラシステムにおけるAFエリア自動選択時の補助光投光処理フローを示すフローチャートである。
【符号の説明】
1 カメラ
3 撮影レンズ
5 補助光投光装置
6 クイックリターンミラー
7 ファインダスクリーン
9 ペンタプリズム
11 接眼レンズ
13 AEセンサ
15 サブミラー
17 焦点検出手段
19 シャッタ
21 撮像素子(フィルム)
23 カメラCPU
25 AE信号処理部
27 AF信号処理部
29 映像信号処理部
31 補助光目標角度演算部
33 表示部
35 表示制御部
37 半押しSW
39 全押しSW
41 AFモードSW
43 AFモードセレクタSW
51 焦点距離エンコーダ
53 距離距離エンコーダ
55 レンズCPU
57 フォーカスレンズ群
59 レンズ駆動モータ
61 エンコーダ
63 AF制御部
81 投光部
83 ストロボ発光部(SB発光部)
85 補助光制御部
87 SB制御部
89 SBCPU
101 測光用レンズ
103 転送部
105 電圧変換部
107 蓄積ゲート部
109 タイミング回路
111 A/D変換部
113 蓄積時間設定部
115 輝度算出部
117 露出演算部
119 レンズ内ROM
130 ハウジング
131 LED素子
133 基板
135 コリメータレンズ
137 可動筒
139 固定絞り
141 支持部材
143 窪み部
145 弾性体
147 回動用VCM
149 角度検出部
151 LED駆動部
153 発光量演算部
155 パルス幅変調ドライバ(PWMドライバ)
157 LPF&アンプ部
159 追従制御部
171 補助光光軸
173 撮影レンズ光軸
175 被写体
181 ラインセンサ
181a 受光素子
183 点滅走査
185 波型走査
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an auxiliary light projector for automatic focus detection and a camera system using the same.
[0002]
[Prior art]
Conventionally, in the auxiliary light projector used for automatic focus detection of a camera, when the subject is dark or the contrast is low, an auxiliary light scanning spot is scanned on the subject to ensure the contrast of the subject. There is a light projection device (see, for example, Patent Document 1).
[0003]
[Patent Document 1]
Japanese Patent Laid-Open No. 10-90592
[Problems to be solved by the invention]
In the case of a camera with an interchangeable photographic lens, the photographic angle of view varies depending on the focal length of the photographic lens attached to the camera. In general, the focal length of an interchangeable lens is several mm to several hundred mm, and the shooting angle of view changes accordingly. In the conventional auxiliary light projector, if the irradiation angle of the auxiliary light for focus detection is determined in accordance with the shooting angle of view of the telephoto lens, the automatic focus detection of all the shooting angle of view of the wide angle lens when the wide angle lens is attached. There is a problem that it becomes impossible to project auxiliary light to the area.
[0005]
Also, if the illumination angle of the auxiliary light for focus detection is determined according to the shooting angle of view of the wide-angle lens, the resolution of the projection angle of the auxiliary light will deteriorate when the telephoto lens is attached, and the shooting angle of view of the telephoto lens There is a problem that it is difficult to finely control the projection angle of the auxiliary light throughout.
[0006]
The present invention has been made in view of the above problems, and an object thereof is to provide an auxiliary light projector that projects auxiliary light suitable for a photographing lens attached to a camera, and a camera system using the auxiliary light projector. And
[0007]
[Means for Solving the Problems]
In order to achieve the above object, according to the present invention, auxiliary light for focus detection is projected onto the subject based on the brightness or contrast of the subject, and the auxiliary light reflected from the subject is detected by the focus of the camera. In the auxiliary light projecting device to be detected by the means, the focus detection means is composed of a line sensor, and the auxiliary light is scanned so as to cross a plurality of times with respect to the arrangement direction of the line sensors, or Provided is an auxiliary light projecting device which is scanned while blinking along a line sensor arrangement direction.
[0008]
In the auxiliary light projecting apparatus according to the present invention, it is preferable that the transverse interval or the blinking interval of the auxiliary light is changed according to the pixel pitch of the line sensor.
[0009]
According to the present invention, in the camera system including the camera and the auxiliary light projector, the camera has an auxiliary light target angle calculation unit and focus detection unit information, and the auxiliary light target angle calculation unit is the camera. Auxiliary light projection position is calculated based on photographing lens information from a photographing lens attached to the auxiliary lens, and the auxiliary light projection device uses auxiliary light consisting of continuous light or blinking light based on the calculation result and the focus detection means information. There is provided a camera system characterized in that light is projected onto a subject and reflected light from the subject is detected by a focus detection means of the camera.
[0010]
In the camera system according to the present invention, it is preferable that the photographing lens information is at least one of focal length information or subject distance information of the photographing lens.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0012]
FIG. 1 shows a configuration diagram of a camera system equipped with an auxiliary light projector according to an embodiment of the present invention. FIG. 2 shows a schematic configuration example of the focus detection means of the camera system shown in FIG. FIG. 3 is a schematic configuration diagram of exposure amount detection means (AE detection) of the camera system shown in FIG. FIG. 4 shows an enlarged schematic view of the AE sensor shown in FIG. FIG. 5 is a schematic configuration diagram of the auxiliary light projector according to the embodiment of the present invention. FIG. 6 is an explanatory diagram of the auxiliary light projection position of the auxiliary light projector according to the embodiment of the present invention, and FIG. 7 is a schematic diagram illustrating the projection state of the auxiliary light in the finder. FIG. 8 is a schematic diagram showing a projection state of auxiliary light according to the embodiment of the present invention. FIG. 9 is an auxiliary light projection processing flowchart when the AF area is manually selected in the camera system shown in FIG. FIG. 10 is a flowchart of auxiliary light projection processing at the time of automatic AF area selection in the camera system shown in FIG.
[0013]
In FIG. 1, a camera system according to an embodiment of the present invention includes a camera body 1 (hereinafter referred to as a camera), a replaceable shooting lens 3 attached to the camera 1, and focus detection (AF). And an auxiliary light projecting device 5 for projecting auxiliary light used for detection.
[0014]
Light from a subject (not shown) is reflected by the quick return mirror 6 through the photographing lens 3 and forms an image on the finder screen 7, and can be observed by the photographer through the pentaprism 9 and the eyepiece lens 11. A part of the reflected light is guided to the AE sensor 13 and the amount of incident light is measured.
[0015]
The central portion of the quick return mirror 6 is a half mirror, and the light passing through the quick return mirror 6 is reflected by the sub mirror 15 and enters the focus detection means 17.
[0016]
The quick return mirror 6 is driven by a drive unit (not shown), is flipped up from the optical axis at the time of exposure, and the shutter 19 is opened and closed, and all the light from the subject is guided to the film or the image sensor 21 (the following description is imaging) The case where an element is used will be described).
[0017]
The camera CPU 23 incorporated in the camera 1 processes an image signal from the image sensor 21, an AE signal processing unit 25 that processes the signal from the AE sensor 13, an AF signal processing unit 27 that processes a signal from the focus detection means 17. And a display control unit 35 that controls a display unit 33 that displays an AF area in the finder.
[0018]
Also, the camera CPU 23 receives signals from the release button half-press SW 37, full-press SW 39 of the camera 1, the AF mode SW 41 provided in the camera 1, the AF selector SW 43, etc., and performs predetermined sequence control. Is called.
[0019]
In the half-pressed state, the brightness of the subject is detected by the AE sensor 13 to calculate the optimum exposure amount, and the focus detection by the focus detection means 17 is performed, and the focusing operation on the subject drives the photographing lens 3. Done. In the fully pressed state, the quick return mirror 6 is flipped up from the optical axis, the shutter 19 is opened and closed, and the subject image is exposed to the image sensor 21.
[0020]
The AF mode SW 41 performs AF mode selection such as manual, single, and continuous. When manual mode is selected, the auxiliary light emission and focus detection functions do not work. When the single mode is selected, a series of focus detection operations described later are performed in conjunction with the half-pressing operation of the release button. When the continuous mode is selected, the focus detection operation described later is continued during the half-press operation of the release button.
[0021]
The AF selector SW 43 is used by the photographer to input whether the AF area is manually selected by the photographer, is automatically selected, and which AF area is selected in the case of manual selection. Based on the AF area selection information of the photographer, the display control unit 35 displays the AF area on the display unit 33 in the finder.
[0022]
In addition, the camera CPU 23 communicates various information with the photographing lens 3 and the auxiliary light projector 5 via a contact (not shown).
[0023]
The photographic lens 3 has a focal length encoder 51 for obtaining lens focal length information and a subject distance encoder 53 for obtaining a current distance value to the subject, and numerical values of each encoder are transmitted to the camera CPU 23 via the lens CPU 55. Sent. The lens CPU 55 has a ROM (not shown) that stores the photographing magnification β. The photographing magnification β is calculated based on the numerical values of the focal length encoder 51 and the subject distance encoder 53, and the value is transmitted to the camera CPU 23.
[0024]
The photographic lens 3 performs a focusing operation by driving a focus lens group 57 by a lens driving motor 59 (for example, a known ultrasonic motor) based on defocus information based on the focus detection unit 17 from the camera CPU 23. The amount of rotation of the drive motor 59 is detected by the encoder 61. For the encoder 61, for example, an MR (magnetoresistive) sensor or the like is used. The signal from the encoder 61 is sent to the AF control unit 63 in the lens CPU 55. The AF control unit 63 calculates the target drive amount of the focus lens group 57 based on the defocus information sent from the camera CPU 23, and controls the lens drive motor 59 to move the focus lens group 57 to the target position. In this way, feedback control for focusing is performed. The taking lens 3 may be a lens having an image stabilization mechanism.
[0025]
The auxiliary light projecting device 5 includes an auxiliary light projecting unit 81 that is rotatably supported, and a strobe light emitting unit that emits light when the brightness of the subject is insufficient (hereinafter referred to as an SB light emitting unit). 83. In addition, an SBCPU 89 including an auxiliary light control unit 85 that controls the light projecting unit 81 and an SB control unit 87 that controls the amount of light emitted from the SB light emitting unit 83 is provided. Information is transmitted through
[0026]
FIG. 2 shows an example of the AF sensor area (Af detection area) of the focus detection means 17. In the present embodiment, area 1 in which a cross sensor is arranged at the center of the finder, area 2 and area 4 in which horizontal sensors are arranged in the upper and lower areas in the center, and vertical sensors in the left and right areas in the center. There are five detection areas in total, that is, the arranged area 3 and area 5. Each sensor has a width of about 1 mm and a length of about 2 to 5 mm. The arrangement of the AF sensor area is appropriately changed depending on the design of the camera 1.
[0027]
FIG. 3 illustrates an AE detection system and its control. The light beam that has passed through the photographing lens 3 reaches the eyes of the photographer through the quick return mirror 6, the finder screen 7, the pentaprism 9, and the eyepiece lens 11. On the other hand, a part of the light beam diffused by the finder screen 7 reaches the light receiving element 13 through the pentaprism 9 and the photometric lens 101. The light receiving element 13 is a storage type light receiving element such as a CCD element.
[0028]
The AE detection system includes a light receiving / accumulating unit (light receiving element) 13, a transfer unit 103, a voltage converting unit 105, an accumulating gate unit 107, and various control units. As shown in FIG. 4, the light receiving / accumulating unit 13 has a plurality of light receiving segments arranged in a matrix of 20 horizontal and 12 vertical, and accumulates electric charges generated in each segment. In addition, the light receiving and accumulating unit 13 is configured to measure the object scene corresponding to the photographing screen. FIG. 4 shows a state when the divided state of the photometric area is collated on the object scene. Clock pulses necessary for charge transfer are supplied from the timing circuit 109 to the transfer unit 103, and the charges accumulated in the light receiving accumulation unit 13 are transferred to the voltage conversion unit 105 pixel by pixel. The voltage converter 105 converts the 240 charge signals sent from the pixels into the same number of voltage level values, and outputs them to the A / D converter 111 from the output terminal. The accumulation gate unit 103 is a gate that receives a signal from the accumulation time setting unit 113 and commands the light receiving and accumulation unit 13 to start and end charge accumulation. By sending a pulse signal to this gate, the start and end of charge accumulation are performed. I do. The accumulation time setting unit 113 calculates the optimum accumulation time at the next accumulation based on information from the luminance calculation unit 115 and the exposure calculation unit 117 and adjusts the accumulated charge amount. The A / D conversion unit 111 converts the voltage signal from the light receiving element 13 into a numerical signal that can be recognized by the computer, and outputs the numerical signal to the luminance calculation unit 115. The luminance calculation unit 115 uses information regarding the photographing lens 3 input from the in-lens ROM 119, the storage time t input from the storage time setting unit 113, and the signal V (m, n) from the A / D conversion unit 111. Thus, 240 luminance values BV (m, n) are obtained by the following equation.
[0029]
BV (m, n) = log (V (m, n) .k (m, n) / t) / log (2)
However, BV (m, n) indicates the mth region from the left and the nth region from the bottom of each of the plurality of matrix-shaped photometric regions in FIG. The reason why the logarithm with the base of 2 is taken on the right side is to convert it into a luminance value based on the Apex method, and the unit of BV (m, n) is (EV) or (BV). k (m, n) is a correction coefficient unique to each photometric area in the photographic lens 3 attached, and is obtained by experiment or simulation from the open F value, exit pupil position, vignette information, etc. input from the in-lens ROM 119. .
[0030]
When performing the exposure calculation, the exposure calculation unit 117 receives 240 luminance signals from the luminance calculation unit 115, performs the exposure calculation, and calculates an appropriate exposure value.
[0031]
Thus, a camera system equipped with the auxiliary light projector according to the embodiment of the present invention is configured.
[0032]
Next, the auxiliary light projector according to the present embodiment will be described in detail with reference to FIG.
[0033]
In FIG. 5, the auxiliary light emitting unit 81 includes a cylindrical housing 130 in which a substrate 133 that holds an LED element 131 that emits auxiliary light (IRED or LD may be used) is fixed to one end. A movable cylinder 137 formed with a collimator lens 135 fixed is provided at the other end. A fixed diaphragm 139 is provided between the LED element 131 and the collimator lens 135 to limit the luminous flux of the emitted light. In the lower part of the outer periphery of the movable cylinder 137, a recess 143 that abuts the needle-like support member 141 with a sharp tip supported by the housing 130 is provided to support the movable cylinder 137. The movable cylinder 137 is supported so as to be movable up and down and left and right with the depression 143 as a fulcrum. An elastic body 145 that is supported by the housing 130 and presses the movable cylinder 137 in the direction of the fulcrum is provided substantially directly above the recess 143 with which the support member 141 contacts, so that the movable cylinder 137 does not come off the fulcrum due to vibration or the like. It is configured. The movable cylinder 137 is supported by a support member 141 and an elastic body 145 in the vicinity of the center of gravity, and is held in the housing 130 so as to be capable of rotating vertically and horizontally.
[0034]
The movable cylinder 137 is rotated vertically and horizontally by a voice coil motor (VCM) 147 provided on the light emitting element 131 side on the outer periphery of the movable cylinder 137. The VCM 147 in the figure is for turning in the vertical direction (pitching), but a VCM for turning in the left-right direction (yawing) (not shown) is also provided.
[0035]
The amount of rotation of the movable cylinder 137 is detected by the angle detection unit 149 provided at the position facing the VCM 147 on the LED element 131 side of the outer periphery of the movable cylinder 137. A left-right yawing amount detection unit (not shown) and a driving VCM are provided to face the outer peripheral portion of the movable cylinder 137 in a direction substantially perpendicular to this axis in a plane including the axis formed by the VCM 147 and the angle detection unit 149. It has been.
[0036]
In the light emission control of the LED element 131, the LED drive unit 151 controls the drive current of the LED element 131 to control the light emission amount.
[0037]
The auxiliary light control unit 85 in the SBCPU 89 is provided with a light emission amount calculation unit 153 that instructs the LED drive unit 151 to emit light, and transmits information to the camera CPU 23 via the SBCPU 89 to calculate an appropriate light emission amount. Then, an appropriate light emission amount is instructed to the LED driving unit 151.
[0038]
The VCM 147 for rotationally driving the movable cylinder 137 is supplied with a current for rotational driving whose duty is controlled by a pulse width modulation driver (PWM driver) 155, and the movable cylinder 137 is appropriately driven.
[0039]
As the movable cylinder 137 rotates, the angle signal detected by the angle detection unit 149 is sent to the follow-up control unit 159 of the auxiliary light control unit 85 via the LPF & amplifier unit 157. The cutoff frequency of the LPF provided to eliminate the high frequency noise component from the voltage output of the angle detection unit 149 is set to an appropriate value in consideration of the stability of the tracking control unit 159. Further, the amplifier unit has a configuration in which the amplifier gain can be changed in accordance with the change of the dynamic range (detection width) of the angle detection unit 149 described later. The follow-up control unit 159 performs a control calculation for driving the movable cylinder 137 based on a target angle calculation result, which will be described later, sent from the camera CPU 23. Calculation is performed by known PID control or the like based on the output of the angle detection unit 149 and the target angle from the target angle calculation unit 31. The follow-up control calculation output is output to the PWM driver 155 as a drive duty.
[0040]
The auxiliary light target angle calculation unit 31 acquires the focal length information, shooting magnification information, and subject distance information of the photographing lens 3 acquired from the lens CPU 55, and the AF mode SW information, AF selector information, and AE luminance signal information acquired by the camera CPU 23. Based on the AF defocus information, the height L (see FIG. 6) information of the light projecting unit 81 acquired from the SBCPU 89, and the like, the light projection target angle of the auxiliary light is calculated. The calculation result is sent to the auxiliary light control unit 85 in the SBCPU 89.
[0041]
With the above-described configuration and feedback control, auxiliary light can be projected to a target position according to the characteristics of the photographic lens 3, the light beam emitted from the auxiliary light is narrowed down, and only the necessary area is irradiated. Thus, it is possible to increase the light projecting efficiency and obtain the auxiliary light projecting device 5 having the effect of reducing the power consumption.
[0042]
Next, the auxiliary light target angle calculation will be described in detail.
[0043]
Based on the focal length information, photographing magnification (β) information, subject distance information, and AF selection area information of the photographing lens 3 mounted on the camera 1, the projection light target angle of the auxiliary light is calculated. The camera 1 has the AF area arrangement information shown in FIG. In FIG. 2, there are five focus detection areas. Each area is identified as area 1, area 2,... Area 5.
[0044]
In the case of a 35 mm film camera, the size of the focus detection sensor is about 2 to 5 mm in the longitudinal direction and about 1 mm in the width direction when converted to the screen size. In order to calculate the target projection angle of the auxiliary light, it is necessary to define the in-screen coordinates of the focus detection area and its detection direction. In FIG. 2, the center of the screen is the origin (0, 0), and the coordinate values at both ends of each area are stored in the camera CPU 23 as AF area arrangement information. The coordinate scale is about half of the width of the detection area. As described above, when the width is 1 mm, the coordinate scale is 0.5 mm. For example, when the arrangement of area 2 in FIG. 2 is 6 mm high and 4 mm wide with respect to the center of the screen in the horizontal direction of the screen (vertical contrast detection), the arrangement information is (−8, 12), (8, 12), H It is expressed. In the case of area 1, since there are two detection directions, the arrangement information also includes information in both the vertical direction and the horizontal direction. Based on this AF area arrangement information, the swing angle of the auxiliary light is calculated.
[0045]
As shown in FIG. 6A, when the optical axis 171 of the auxiliary light from the auxiliary light projector 5 is emitted in a state substantially parallel to the optical axis 173 of the photographing lens 3, the subject distance R of the subject 175 is short. Since the auxiliary light can be irradiated to a desired position due to the influence of the parallax, it is necessary to correct the projection angle θ of the auxiliary light according to the distance to the subject 175. The correction requires the auxiliary light emission height L from the optical axis 173 of the photographic lens 3. The auxiliary light emission height L is a height CL from the contact point of the camera 1 to the optical axis 173 of the photographing lens 3, and a height SL from the contact point of the auxiliary light projector 5 to the optical axis 171 of the light projecting unit 81. The sum of The camera CPU 23 has the CL, and the SB CPU 89 has the SL. Information on the shooting magnification β and shooting distance R is communicated from the lens CPU 55, and information on SL is communicated from the SBCPU 89 to the camera CPU 23. Based on these pieces of information, the auxiliary light target angle calculator 31 calculates the light projection angle θ of the auxiliary light.
[0046]
When the photographer selects, for example, area 1 in the AF area shown in FIG. 6B, the initial emission angle θini (1) is obtained from FIG.
θini (1) = Arctan (L / R), (R′≈R)
Given in. When area 2 is selected, the initial angle θini (2) is obtained using the shooting magnification β and the area arrangement information (h2).
θini (2) = Arctan ((L−1 / β * h2) / R), (R′≈R). Since R ′ and R are substantially equal, there is no problem in calculation even if R is used in the above formula.
[0047]
Although the initial emission angle θini in the vertical (pitching) direction has been described here, the initial emission angle in the horizontal (yawing) direction is similarly calculated.
[0048]
As a result of the above calculation, the projection position of the auxiliary light is optimized according to the photographing lens 3 attached to the camera 1, so that the target AF area on the subject 175 (for example, as shown in FIG. , It is possible to project auxiliary light to area 1 (white arrow).
[0049]
Furthermore, in the auxiliary light projector 5 according to the present embodiment, the scanning range and the minimum scanning step amount of the auxiliary light are changed based on information such as the focal length of the photographing lens 3 attached to the camera 1. Details will be described below.
[0050]
Since the shooting angle of view changes depending on the focal length of the shooting lens 3 mounted on the camera 1, the swing angle (scanning range) of the auxiliary light for focus detection is changed. The longer the focal length, the narrower the angle of view. For example, in a 35 mm system, when the focal length is 300 mm, the diagonal is about 8 degrees. On the other hand, the shorter the focal length, the wider the angle of view. For example, when the focal length is 18 mm, the diagonal is about 100 degrees. For this reason, it is necessary to optimize the swing angle of the auxiliary light according to the angle of view. When the angle of view is narrow, the swing angle of the auxiliary light may be small, but the accuracy (scanning step) required for the swing angle is small. When the angle of view is wide, the swing angle of the auxiliary light increases, but the required accuracy may be low. The control accuracy of the swing angle depends on the angle detector 149 of the auxiliary light. If the maximum swing angle of the angle detection unit 149 is set to 100 degrees, when the 10-bit A / D circuit is quantized, the control accuracy is approximately 0.1 degrees / LSB, and the auxiliary light swing angle accuracy is also determined to be 0.1 deg or more. It becomes difficult. When used as it is with an imaging lens having a focal length of 300 mm, the image plane resolution is about 0.5 mm from 300 mm × tan 0.1 deg. This means that the auxiliary light can only be shaken with a minimum interval of 0.5 mm.
[0051]
On the other hand, as described above, the width of the AF sensor CCD when converted into the image plane is only about 1 mm wide, and it can be seen that the resolution is clearly insufficient when the scanning step of the auxiliary light is at intervals of 0.5 mm.
[0052]
In the present embodiment, the angle detection output 149 and the movable cylinder 137 are rotated so as to change the swing angle of the auxiliary light and the minimum scanning step amount according to the focal length information and the subject distance information sent from the photographing lens 3 as needed. The minimum rotation step amount of the VCM 147 is also changed.
In this way, by changing the maximum swing angle and the minimum scanning step amount according to the photographing lens 3, it becomes possible to project the auxiliary light for focus detection suitable for the photographing lens 3 onto the subject.
[0053]
The swing angle is calculated based on the focal length information. For example, the swing angle (dynamic range) is set to twice the calculated view angle, and the amplifier of the LPF & amplifier unit 157 provided at the subsequent stage of the angle detection unit 149 is used. Change the gain. Further, the feedback gain of the follow-up control unit 159 is also changed with the change of the amplifier gain of the LPF & amplifier unit 157. By changing the amplifier gain and feedback gain as described above, it is possible to secure an appropriate dynamic range and minimum scanning step amount (resolution) according to the focal length (angle of view) of the photographic lens 3, and optimal auxiliary light irradiation is possible. It becomes.
[0054]
Next, scanning of auxiliary light for the focus detection area will be described.
[0055]
In FIG. 7, focus detection sensors (for example, CCD elements) 181 (hereinafter referred to as line sensors) in area 2 and area 4 are formed by arranging a plurality of light receiving elements 181a in the horizontal direction, and line sensors in area 3 and area 5. Is formed by arranging a plurality of light receiving elements 181a in the vertical direction. In the central area 1, a plurality of light receiving elements 181a are arranged in the vertical and horizontal directions to form a cross-shaped line sensor.
[0056]
FIG. 8 is a diagram illustrating an example of a scanning state of auxiliary light in the present embodiment. When the line sensor 181 arranged in the focus detection area (for example, area 2 in FIG. 7) is scanned from the left side to the right side in the figure while blinking the auxiliary light (flashing scanning) 183, the auxiliary light is continuous. An example of a case where scanning is performed so as to cross the line sensor 181 while making it emit light (wave-shaped scanning pattern) 185 is shown in a single figure.
[0057]
In the blinking scanning, scanning is performed on the line sensor 181 while blinking auxiliary light, so that even when there is no contrast difference in the subject itself, a contrast difference is generated and focus detection becomes possible. The flashing interval of the auxiliary light suitable for focus detection varies depending on the arrangement pitch of the light receiving elements 181a. When the pitch is fine, the flashing interval is shortened to provide auxiliary light suitable for the line sensor 181. The auxiliary light turn-on interval or light extinction interval is preferably 3 to 6 times the pitch of the light receiving elements 181a. In order to avoid generation of a false detection signal, the lighting interval may be aperiodic.
[0058]
Further, when the auxiliary light is continuously emitted and the auxiliary light is scanned so as to cross a plurality of positions of the focus detection sensor 181, the auxiliary light is applied to the light receiving element 181a of the line sensor 181 as shown in FIG. A contrast difference occurs between a place where the light hits and a place where the light does not hit, and the focus can be detected.
[0059]
The auxiliary light scanning control as described above is performed on the target line sensor by the SBCPU 89 synchronizing and driving the LED driving unit 151 and the PWM driver 155 based on the arrangement information of the line sensor 181 from the camera CPU 23. It becomes possible to perform flashing scanning or wave scanning.
[0060]
Next, the focus detection step in the camera system using the auxiliary light projector according to the present invention will be described in detail with reference to FIGS.
[0061]
When the photographer turns on the power of the camera system, the camera CPU 23 obtains various information such as focal length information and subject distance information and stands by.
● (Step 1 (S1)): AE output reading When the photographer takes a shooting posture on the subject and presses the release button halfway down, the AE detection element 13 detects the amount of light from the subject and reads it into the camera CPU. .
(Step 2 (S2)): Based on the information in the auxiliary light necessity determination step S1, it is determined whether or not auxiliary light projection is necessary. When auxiliary light is unnecessary, the auxiliary light emission sequence is ended (END), and a focus detection sequence (not shown) is executed.
(Step 3 (S3)): When the luminance or contrast is insufficient to receive the AE arrangement information receiving auxiliary light, the SBCPU 89 of the auxiliary light projecting apparatus receives the AF detection area arrangement information from the camera CPU 23. Receive. Since the AF detection area varies depending on the camera, it is possible to accurately radiate auxiliary light to the AF selection area by receiving the AF detection area arrangement information. Further, the AF detection area arrangement information includes information on whether the AF detection area is arranged vertically or horizontally. Thereby, the irradiation direction of AF auxiliary light can be changed. When the AF detection area is arranged in the vertical direction, the auxiliary light is irradiated so as to form a horizontal stripe on the AF detection area, and when the AF detection area is arranged in the horizontal direction, a vertical stripe is created. Control to emit auxiliary light.
(Step 4 (S4)): Based on the output from the AF auxiliary light drive control start angle detector 149, feedback control for projecting the auxiliary light to the target position is performed. The auxiliary light projection target angle is set to the aforementioned initial position θini, and the fixed position control of the auxiliary light projection position is started. The initial position θini at this time is performed at the center position of the auxiliary light angle detection unit 149.
(Step 5 (S5)): Judgment whether or not AF area is manually selected. Reads whether AF area selection is manual or automatic. If it is automatic, when automatic selection is described later. The processing of the flow (after S23) is performed. Here, the case of manual selection will be described.
(Step 6 (S6)): Reading of focal length information and subject distance information The camera CPU acquires respective information from the focal length encoder 51 and the subject distance encoder 53 provided on the photographing lens 3 via the lens CPU 55. .
(Step 7 (S7)): The shooting angle of view changes depending on the focal length of the photographic lens 3 mounted on the dynamic range setting camera 1 of the angle detection unit 149, and accordingly, the swing angle of the auxiliary light and the minimum scanning step amount Changes. The dynamic range of the LPF & amplifier unit 157 provided at the subsequent stage of the angle detection unit 149 is set to an optimal value according to the focal length of the photographing lens 3.
(Step 8 (S8)): Read AF selection area The AF selection area information selected by the photographer is read into the camera CPU 23.
(Step 9 (S9)): The auxiliary light target angle calculation unit 31 calculates the auxiliary light target angle based on the output of the auxiliary light target angle changing focal length encoder 51, the information of the distance encoder 53, and the AF selection area information, and the SBCPU 89. , The projection angle of the auxiliary light is set. The output of the subject distance encoder 53 is used for parallax correction. When this process is first performed, the focus is usually not achieved, and this process increases the certainty every time the process is repeated. The reason for changing the target angle toward the AF selection area is that there is a high possibility that there is a subject near the selection area.
(Step 10 (S10)): After the light emission angle of the auxiliary light is set to the target angle in the calibration light emission step 9, the calibration light emission is performed. In calibration light emission, the rough irradiation position and light emission amount of auxiliary light are adjusted from the AE luminance value information. The light emission time is set based on the AE element accumulation time.
(Step 11 (S11)): The AE output reading camera CPU 23 acquires AE luminance value information from the AE sensor 13 after the calibration light emission in Step S10.
(Step 12 (S12)): From the AE luminance value information in the auxiliary light confirmation S11, it is confirmed whether or not the auxiliary light is projected within a predetermined range. Compared with the AE luminance value information read before the light emission, it is confirmed whether or not the luminance output considered to be auxiliary light is obtained.
● (Step 13 (S13)): Change target angle to a different AF area If there is no difference between the AE luminance output before emission and the AE luminance output after calibration emission in step S11, there is no subject in that AF selection area Another possible cause is that the subject in the AF selection area is far away. In that case, calibration light emission is performed again by changing the target angle to an area different from the selected AF area. If the auxiliary light output cannot be obtained even when the entire AF area is irradiated, the photographer is warned and the auxiliary light emission is stopped.
(Step 14 (S14)): The auxiliary light projection approximate position is detected based on the determination AE output whether the auxiliary light projection position is within the predetermined range. The irradiation position is detected by comparing the AE luminance output read before light emission with the AE luminance output read this time. If the auxiliary light irradiation position is within the predetermined range, it is possible to capture the AF area during subsequent main light emission. If it is not within the predetermined range, the auxiliary light target angle is reset (S9) based on the AE luminance output, and the calibration light emission (S10) is performed again.
(Step 15 (S15)) When the defocus amount estimation auxiliary light projection position is not within the predetermined range, the following causes are considered.
[0062]
(A) AF is not in focus and the value of the subject distance encoder 53 is not at the subject distance. For this reason, the parallax correction is not appropriate, and the irradiation position is deviated.
[0063]
(B) There is a deviation in the angle between the optical axis 171 of auxiliary light and the optical axis 173 of the photographing optical lens 3 at the output center position of the auxiliary light angle detector 149.
[0064]
The approximate position to the subject can be calculated from the factor (a). From the auxiliary light irradiation angle θ, the height L of the auxiliary light projector 81, the in-screen auxiliary light confirmation position h2, the shooting magnification β, etc., the subject distance Rt is
Rt = (L−h2 / β) / tan θ
It is represented by However, the photographing magnification β is a function of the subject distance R and the focal distance f. The approximate subject distance Rt can be estimated from the auxiliary light confirmation position thus observed.
(Step 16 (S16)): Determining whether or not the defocus amount is within the predetermined range The defocus amount is obtained from the subject distance estimated as described above and the value of the subject distance encoder 53 sent from the photographing lens 3. If the defocus amount is within the predetermined range, the steps after the auxiliary light target angle changing step (S9 to S13) are executed so that the irradiation position falls within the predetermined range in order to correct the factor (b). If the defocus amount is outside the predetermined range, the defocus amount is sent to the lens, AF driving is performed (S17), and the steps after the auxiliary light target angle changing step (S9 to S13) are executed again. Thus, by estimating the defocus amount, the approximate focus position can be specified even for a blurred image that cannot be detected by focus detection, so that the AF speed can be improved.
(Step 18 (S18)): When the auxiliary light projection position is within the predetermined range in the determination routine of the auxiliary light target angle changing step 14 to the selected AFCCD, the AF area sensor ( The auxiliary light target angle is changed toward the CCD, and the change contents are instructed to the SBCPU 89.
● (Step 19 (S19)): Auxiliary light SCAN
The auxiliary light is scanned and emitted in a predetermined pattern, and the auxiliary light is scanned at the AF sensor position in the AF selection area. An auxiliary light target angle is instructed to the SBCPU 89 as needed in accordance with the shape of an AF sensor (CCD) stored in a ROM (not shown) of the camera CPU 23. By instructing the scan pattern from the camera 1, it is possible to accurately detect the focus in accordance with the AF sensor.
(Step 20 (S20)): AF signal processing Focusing on the subject is performed by a known focus detection process.
● (Step 21 (S21)): Determining whether or not the Defocus is within the Predetermined Range If the defocus amount is within the predetermined range, the AF is terminated and the auxiliary light control is stopped and terminated (END). When the focus amount is not within the predetermined range, the defocus amount is transmitted to the lens.
(Step 22 (S22)): AF driving is performed on the defocus data lens according to the defocus amount. The camera 1 side again executes the steps (S5 to S21) after the AF area manual selection step.
[0065]
The above is the drive sequence at the time of manual selection.
[0066]
Next, the drive sequence (after step 23) at the time of automatic selection will be described with reference to the flowchart of FIG. Processing steps equivalent to those in the manual selection flowchart of FIG. 9 are denoted by the same reference numerals, description thereof is omitted, and only different steps will be described.
(Step 24 (S24)): Step corresponding to step S8 in FIG. 9 to the center of the AF selection area, where the first light projection position of the auxiliary light automatically selects the center of the AF area. Note that the first light projection position is not necessarily limited to the center of the AF area, but generally the center of the AF area is most easily understood. Henceforth, step group SG1 from S9 to S17 is the same as that at the time of manual selection. If the auxiliary light irradiation position is within the predetermined range in S14, the process proceeds to the next S25.
(Step 25 (S25)): Change the AF area The AF area is automatically changed, and the step group SG2 from S9 to S13 is repeated. Thus, all the AF areas are scanned.
(Step 26 (S26)): End of all areas SCAN When scanning of all AF areas is completed, the process proceeds to step 27.
● (Step 27 (S27)): All AF areas were scanned in the step before AF area selection in which auxiliary light was confirmed by AE, and among these AF areas, the position where the auxiliary light was projected was confirmed by the AE sensor. After selecting and executing S18 to S20 and SCAN of all areas with AE output is completed (S28), target AF area selection S29 is executed to select an AF area used for focus detection. Subsequent processing is the same as that for manual selection, and thus description thereof is omitted. Through the above steps, focus detection at the time of automatic selection is executed.
[0067]
The above-described embodiment is merely an example, and is not limited to the above-described configuration and shape, and can be appropriately modified and changed within the scope of the present invention.
[0068]
【The invention's effect】
As described above, according to the present invention, it is possible to provide an auxiliary light projector that projects auxiliary light suitable for a photographic lens mounted on a camera, and a camera system using the auxiliary light projector.
[Brief description of the drawings]
FIG. 1 shows a configuration diagram of a camera system equipped with an auxiliary light projector according to an embodiment of the present invention.
2 shows a schematic configuration example of focus detection means of the camera system shown in FIG.
3 shows a schematic block diagram of exposure amount detection means (AE detection) of the camera system shown in FIG. 1. FIG.
4 shows an enlarged schematic diagram of the AE sensor shown in FIG. 3;
FIG. 5 is a schematic configuration diagram of an auxiliary light projector according to an embodiment of the present invention.
FIG. 6 is an explanatory diagram of an auxiliary light projection position of the auxiliary light projection apparatus according to the embodiment of the invention.
FIG. 7 is a schematic diagram illustrating a projection state of auxiliary light in the finder.
FIG. 8 is a schematic diagram showing a projection state of auxiliary light according to the embodiment of the present invention.
9 is a flowchart showing an auxiliary light projection processing flow when AF area is manually selected in the camera system shown in FIG.
10 is a flowchart showing an auxiliary light projecting process flow at the time of automatic AF area selection in the camera system shown in FIG. 1;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Camera 3 Shooting lens 5 Auxiliary light projector 6 Quick return mirror 7 Finder screen 9 Penta prism 11 Eyepiece 13 AE sensor 15 Submirror 17 Focus detection means 19 Shutter 21 Imaging element (film)
23 Camera CPU
25 AE signal processing unit 27 AF signal processing unit 29 Video signal processing unit 31 Auxiliary light target angle calculation unit 33 Display unit 35 Display control unit 37 Half-press SW
39 Fully pressed SW
41 AF mode SW
43 AF mode selector SW
51 Focal Length Encoder 53 Distance Distance Encoder 55 Lens CPU
57 Focus lens group 59 Lens drive motor 61 Encoder 63 AF control unit 81 Projecting unit 83 Strobe light emitting unit (SB light emitting unit)
85 Auxiliary light controller 87 SB controller 89 SBCPU
DESCRIPTION OF SYMBOLS 101 Photometry lens 103 Transfer part 105 Voltage conversion part 107 Accumulation gate part 109 Timing circuit 111 A / D conversion part 113 Accumulation time setting part 115 Luminance calculation part 117 Exposure calculation part 119 ROM in lens
130 Housing 131 LED element 133 Substrate 135 Collimator lens 137 Movable cylinder 139 Fixed aperture 141 Support member 143 Depression 145 Elastic body 147 VCM for rotation
149 Angle detection unit 151 LED drive unit 153 Light emission amount calculation unit 155 Pulse width modulation driver (PWM driver)
157 LPF & amplifier unit 159 Tracking control unit 171 Auxiliary light optical axis 173 Shooting lens optical axis 175 Subject 181 Line sensor 181a Light receiving element 183 Flashing scanning 185 Wave scanning

Claims (4)

被写体の輝度またはコントラストの高低に基づいて焦点検出用の補助光を前記被写体に投光し、前記被写体から反射された前記補助光をカメラの焦点検出手段に検出させる補助光投光装置において、
前記焦点検出手段は、ラインセンサから構成され、
前記補助光は、前記ラインセンサの並び方向に対して複数回横断するように走査されるか、または前記ラインセンサの並び方向に沿って点滅しながら走査されることを特徴とする補助光投光装置。
In an auxiliary light projector that projects focus detection auxiliary light on the subject based on the brightness or contrast level of the subject and causes the focus detection means of the camera to detect the auxiliary light reflected from the subject.
The focus detection means is composed of a line sensor,
The auxiliary light is scanned so as to cross a plurality of times with respect to the direction in which the line sensors are arranged, or scanned while blinking along the direction in which the line sensors are arranged. apparatus.
前記補助光の横断間隔または点滅間隔は、前記ラインセンサの画素ピッチに応じてそれぞれ変更することを特徴とする請求項1に記載の補助光投光装置。The auxiliary light projecting device according to claim 1, wherein a transverse interval or a blinking interval of the auxiliary light is changed according to a pixel pitch of the line sensor. カメラと補助光投光装置とからなるカメラシステムにおいて、
前記カメラは、補助光目標角度演算部と焦点検出手段情報を有し、
前記補助光目標角度演算部は、前記カメラに装着されている撮影レンズからの撮影レンズ情報に基づき補助光投光位置を算出し、
前記補助光投光装置は、前記算出結果および前記焦点検出手段情報に基づき連続光または点滅光からなる補助光を被写体に投光し、
前記被写体からの反射光を前記カメラの焦点検出手段に検出させることを特徴とするカメラシステム。
In a camera system consisting of a camera and an auxiliary light projector,
The camera has an auxiliary light target angle calculation unit and focus detection means information,
The auxiliary light target angle calculation unit calculates an auxiliary light projection position based on photographing lens information from a photographing lens attached to the camera,
The auxiliary light projecting device projects auxiliary light consisting of continuous light or blinking light to a subject based on the calculation result and the focus detection unit information,
A camera system, wherein reflected light from the subject is detected by a focus detection means of the camera.
前記撮影レンズ情報は、前記撮影レンズの焦点距離情報または被写体距離情報の少なくとも一方であることを特徴とする請求項3に記載のカメラシステム。4. The camera system according to claim 3, wherein the photographing lens information is at least one of focal length information and subject distance information of the photographing lens.
JP2003185325A 2003-06-27 2003-06-27 Auxiliary light projector and camera system using the same Expired - Fee Related JP4432378B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003185325A JP4432378B2 (en) 2003-06-27 2003-06-27 Auxiliary light projector and camera system using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003185325A JP4432378B2 (en) 2003-06-27 2003-06-27 Auxiliary light projector and camera system using the same

Publications (2)

Publication Number Publication Date
JP2005017921A true JP2005017921A (en) 2005-01-20
JP4432378B2 JP4432378B2 (en) 2010-03-17

Family

ID=34184824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003185325A Expired - Fee Related JP4432378B2 (en) 2003-06-27 2003-06-27 Auxiliary light projector and camera system using the same

Country Status (1)

Country Link
JP (1) JP4432378B2 (en)

Also Published As

Publication number Publication date
JP4432378B2 (en) 2010-03-17

Similar Documents

Publication Publication Date Title
US20020146245A1 (en) Image shake correcting device
JP2009163179A (en) Photographing device and method of controlling the same
JP2001004909A (en) Camera having automatic focusing device
US9992424B2 (en) Imaging apparatus, camera system, and control method controlling flash photography
JP2001255456A (en) Range-finding device
JP2007264299A (en) Focus adjustment device
JPH06301078A (en) Camera provided with special effect photographing function
JP5211680B2 (en) Autofocus device, autofocus method selection method, and program
JP2000275512A (en) Camera
JP4432378B2 (en) Auxiliary light projector and camera system using the same
JP6486040B2 (en) Imaging system, illumination device, and control method
JP2005017891A (en) Auxiliary light projector and camera system using the
JP2005017922A (en) Auxiliary light projector and camera system using same
JP2005017893A (en) Auxiliary light projector and camera system using same
JP2005017916A (en) Auxiliary light projecting device and camera system using the same
JP2005221641A (en) Imaging device
JP2007065002A (en) Focus detector and imaging apparatus
JP2006171147A (en) Auxiliary light device for focus detection of camera
JP2014115318A (en) Auxiliary light projection device and auxiliary light projection method
JP2019139031A (en) Imaging apparatus and method for controlling the same
JP2006078734A (en) Photographing apparatus
JP4810768B2 (en) camera
JP2006017854A (en) Imaging apparatus and flash light emitting device
JP3999692B2 (en) camera
JP5115324B2 (en) Focus detection apparatus and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090728

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091214

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140108

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees