JP2004179963A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2004179963A
JP2004179963A JP2002343840A JP2002343840A JP2004179963A JP 2004179963 A JP2004179963 A JP 2004179963A JP 2002343840 A JP2002343840 A JP 2002343840A JP 2002343840 A JP2002343840 A JP 2002343840A JP 2004179963 A JP2004179963 A JP 2004179963A
Authority
JP
Japan
Prior art keywords
flash
light
imaging
information
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002343840A
Other languages
Japanese (ja)
Other versions
JP2004179963A5 (en
JP4323781B2 (en
Inventor
Toshifumi Osawa
敏文 大沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002343840A priority Critical patent/JP4323781B2/en
Publication of JP2004179963A publication Critical patent/JP2004179963A/en
Publication of JP2004179963A5 publication Critical patent/JP2004179963A5/ja
Application granted granted Critical
Publication of JP4323781B2 publication Critical patent/JP4323781B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To obtain an image as a photographic intention by automatically changing the light volume of a flash (strobe). <P>SOLUTION: In a control means 41 of a camera main body 1, the serial imaging of a plurality of images is performed by automatically calculating a condition for imaging the plurality of images with the different mix ratio of the light volume of the flash and the light volume of background light, under which a main abject can be photographed at proper exposure. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、デジタルスチルカメラ等の撮像装置に関し、特にそのフラッシュ撮影制御に関するものである。
【0002】
【従来の技術】
デジタルスチルカメラにおいてのフラッシュ(ストロボ)撮影時に、フラッシュの光量と背景光(定常光)の光量をどのくらいの比率でミックスすれば撮影意図通りの雰囲気のある画像が得られるかというのは撮影者の経験や感に頼る部分が多く、撮影が難しかった。
【0003】
そこで下記特許文献1では定常光による画像とストロボ光による画像を連続撮影してそれぞれ記憶した後に任意の比率にて加算合成するという提案をしている。
【0004】
【特許文献1】
特開2000−307941号公報
【0005】
【発明が解決しようとする課題】
しかし、定常光による画像とストロボ光による画像を連続撮影してそれぞれ記憶した後に任意の比率にて加算合成する手法では連続撮影する間に被写体が動いてしまった場合に加算合成がうまくいかなくなってしまい不自然な画像になる可能性がある。
【0006】
本発明は、このような状況のもとでなされたもので、撮像装置において、自動的にフラッシュ(ストロボ)の光量を変えて複数回撮像し、撮影意図通りの画像が得ることを課題とするものである。
【0007】
【課題を解決するための手段】
前記課題を解決するため、本発明では、撮像装置を次の(1)ないし(3)のとおりに構成し、撮像方法を次の(4)のとおりに構成し、プログラムを次の(5)のとおりに構成する。
【0008】
(1)被写体の輝度情報並びに所定のプログラム線図または設定値に基づく第1の露出因子によって背景光量を決定する背景光量決定手段と、
撮像時に前記背景光量と加算されて主被写体を適正露光とするためのフラッシュ光量を決定する第1のフラッシュ光量決定手段と、
前記背景光量決定手段によって決定された第1の露出因子を所定量減算して第2の露出因子を決定し、該第2の露出因子に基づく背景光量と加算されて主被写体を適正露光とするための第2のフラッシュ光量を決定する第2のフラッシュ光量決定手段と、
前記背景光量決定手段によって決定された第1の露出因子を所定量加算して第3の露出因子を決定し、該第3の露出因子に基づく背景光量と加算されて主被写体を適正露光とするための第3のフラッシュ光量を決定する第3のフラッシュ光量決定手段と、
前記背景光量決定手段によって決定された第1の露出因子と前記第1のフラッシュ光量決定手段によって決定されたフラッシュ光量に基づいて第1の撮像を行い、前記第2の露出因子と前記第2のフラッシュ光量に基づいて第2の撮像を行い、前記第3の露出因子と前記第3のフラッシュ光量に基づいて第3の撮像を行うように制御する制御手段と、
を備えたことを特徴とする撮像装置。
【0009】
(2)前記(1)に記載の撮像装置において、
前記制御手段は、前記第1の撮像によって得られた第1の画像情報と前記第2の撮像によって得られた第2の画像情報および前記第3の撮像によって得られた第3の画像情報とにおけるホワイトバランス調整量を同一とすることを特徴とする撮像装置。
【0010】
(3)自動的に、フラッシュの光量と背景光の光量とのミックス比率が異なりかつ主被写体が適正露出である画像を複数連続撮像するように制御する制御手段を備えたことを特徴とする撮像装置。
【0011】
(4)自動的に、フラッシュの光量と背景光の光量とのミックス比率が異なりかつ主被写体が適正露出である画像を複数連続撮像することを特徴とする撮像方法。
【0012】
(5)前記(4)記載の撮像方法を実現するためのプログラム。
【0013】
【発明の実施の形態】
以下、本発明の実施の形態をカメラの実施例により詳しく説明する。なお、本発明は、装置の形に限らず、実施例の説明に裏付けられて、方法の形で、また、この方法を実現するためのプログラムの形で実施することもできる。
【0014】
【実施例】
図1は、実施例である“カメラ”における主として光学部材の配置を示す断面図である。
【0015】
図1においては、レンズ交換可能ないわゆる一眼レフタイプのカメラの構成を示しているが、1はカメラ本体、2は交換レンズ、3はフラッシュ装置である。
【0016】
カメラ本体1において、10はメカニカルシャッター、11はロウパスフィルター、12は例えばCMOSやCCDといったエリアの蓄積型光電変換素子からなる撮像素子、13は半透過性の主ミラー、14は第1の反射ミラーで主ミラー13と第1の反射ミラー14はともに撮影時には上部に跳ね上がる。15は第1の反射ミラー14による撮像素子12面と共役な近軸的結像面、16は第2の反射ミラー、17は赤外カットフィルター、18は2つの開口部を有する絞り、19は2次結像レンズ、20は焦点検出用センサーである。
【0017】
焦点検出用センサー20は例えばCMOSやCCDといったエリアの蓄積型光電変換素子からなり、図2に示すように、絞り18の2つの開口部に対応して多数分割された受光センサー部が20Aと20Bとの2対のエリアの構成になっている。また、受光センサー部20Aと20Bに加えて、信号蓄積部や信号処理用の周辺回路などが同一チップ上に集積回路として作り込まれる。
【0018】
第1の反射ミラー14から焦点検出用センサー20までの構成は、特開平9−184965号公報等に詳細に記載されているように、撮影画面内の任意の位置での像ずれ方式での焦点検出を可能とするものである。
【0019】
21は拡散性を有するピント板、22はペンタプリズム、23は接眼レンズ、24は第3の反射ミラー、25は集光レンズ、26は被写体の輝度に関する情報を得るための測光用センサーである。
【0020】
測光用センサー26は例えばシリコンフォトダイオード等の光電変換素子からなり、図3に例示するように格子状に複数分割された受光センサー部を有した構成になっており、撮影画面の略全体を視野としている。図示したように本例では受光視野内を7列×5行=35分割としている。35分割された各受光部に対してはPD11〜PD57と呼ぶこととする。受光センサー部以外に信号増幅部や信号処理用の周辺回路などが同一チップ上に集積回路として作り込まれることは周知である。
【0021】
ピント板21,ペンタプリズム22,接眼レンズ23によってファインダー光学系が構成される。測光用センサー26には主ミラー13によって反射されてピント板21によって拡散された光線のうち光軸外の一部が入射する。
【0022】
図4は前記した焦点検出用センサー20等による焦点検出手段による撮影画面内の焦点検出位置と35分割された測光用センサー26との対応位置関係を表した図である。本例では撮影画面内の焦点検出位置をS01からS23までの9点の例とし、焦点検出位置S01は測光用センサー26の受光部PD23に対応した位置にて焦点検出を行う。さらに、図示のように焦点検出位置S02は測光用センサー26の受光部PD24に対応した位置にて焦点検出を行い、焦点検出位置S03は測光用センサー26の受光部PD25に対応した位置にて焦点検出を行い、以下同様であって焦点検出位置S23は測光用センサー26の受光部PD45に対応した位置にて焦点検出を行う。
【0023】
図1の説明に戻る。27は撮影レンズを取り付けるマウント部、28は撮影レンズと情報通信を行うための接点部,29はフラッシュ装置を取り付けられる接続部である。
【0024】
交換レンズ2において、30a〜30eは撮影レンズを構成する各光学レンズ、31は絞り、32はカメラ本体と情報通信を行うための接点部、33はカメラに取り付けられるためのマウント部である。
【0025】
フラッシュ装置3において、34はキセノン管、35は反射笠、36はフレネル板、37はキセノン管34の発光量をモニターするためのモニターセンサー、38はカメラ本体1にフラッシュ装置3を取り付けるための取り付け部である。
【0026】
図5は本発明を実施したカメラ本体1とその交換レンズ2およびフラッシュ装置3の電気回路の構成例を表わすブロック図である。カメラ本体1において41は例えば内部にALU,ROM,RAMやA/Dコンバータ,タイマー,シリアル通信ポート(SPI)等を内蔵したワンチップマイクロコンピュータによる制御手段であり、カメラ機構等の全体制御を行う。制御手段41の具体的な制御シーケンスについては後述する。焦点検出用センサー20および測光用センサー26は図1等に記載したものと同一である。焦点検出用センサー20および測光用センサー26の出力信号は、制御手段41のA/Dコンバータ入力端子に接続される。
【0027】
42はシャッター駆動手段であり、制御手段41の出力端子に接続されて図1記載のメカニカルシャッター10を駆動する。43は信号処理回路であり、制御手段41の指示に従って撮像素子12を制御して撮像素子12が出力する撮像信号をA/D変換しながら入力して信号処理を行い、画像信号を得る。また、得られた画像信号に対して必要な画像処理を行う。44はフラッシュROM等の不揮発性メモリまたは光ディスク等による記憶手段であり、撮像された画像信号を記憶する。45は第1のモータードライバであり、制御手段41の出力端子に接続されて制御されて、主ミラー13および第1の反射ミラー14のアップ・ダウンを行う。47は液晶パネル等で構成されて撮影枚数や日付情報,露出情報等を表示する表示器であり、やはり制御手段41の出力信号に応じて各セグメントが点灯制御される。48はホワイトバランスのモード設定等を行うためのホワイトバランス設定手段、49は撮影モード設定手段、50はレリーズスイッチである。28は図1に記載した接点部であり、制御手段41のシリアル通信ポートの入出力信号が接続される。29は図1に記載したフラッシュ装置接続部であり、フラッシュ装置3と通信が可能なようにやはり制御手段41のシリアル通信ポートの入出力信号が接続される。
【0028】
交換レンズ2において、51は例えば内部にALU,ROM,RAMやタイマー,シリアル通信ポート(SPI)等を内蔵したワンチップマイクロコンピュータによるレンズ制御手段である。52は第2のモータードライバであり、レンズ制御手段51の出力端子に接続されて制御され、焦点調節を行うための第2のモーター53を駆動する。54は第3のモータードライバであり、レンズ制御手段51の出力端子に接続されて制御され、図1にて記載した絞り31の制御を行うための第3のモーター55を駆動する。56は焦点調節レンズの繰り出し量すなわち被写体距離に関する情報を得るための距離エンコーダーであり、レンズ制御手段51の入力端子に接続される。57は交換レンズ30がズームレンズである場合に撮影時の焦点距離情報を得るためのズームエンコーダーであり、レンズ制御手段51の入力端子に接続される。32は図1に記載した接点部であり、レンズ制御手段51のシリアル通信ポートの入出力信号が接続される。
【0029】
交換レンズ2がカメラ本体1に装着されるとそれぞれの接点部28と32とが接続されてレンズ制御手段51はカメラ本体の制御手段41とのデータ通信が可能となる。カメラ本体の制御手段41が焦点検出や露出演算を行うために必要なレンズ固有の光学的な情報や、距離エンコーダー56あるいはズームエンコーダー57に基づいた被写体距離に関する情報または焦点距離情報はレンズ制御手段51からカメラ本体の制御手段41へとデータ通信によって出力される。また、カメラ本体の制御手段41が焦点検出や露出演算を行った結果、求められた焦点調節情報や絞り情報はカメラ本体の制御手段41からレンズ制御手段51へとデータ通信によって出力されて、レンズ制御手段51は焦点調節情報に従って第2のモータードライバ52を制御し、絞り情報に従って第3のモータードライバ54を制御する。
【0030】
フラッシュ装置3において、61は例えば内部にALU,ROM,RAMやA/Dコンバータ,タイマー,シリアル通信ポート(SPI)等を内蔵したワンチップマイクロコンピュータによるフラッシュ制御手段であり、62はキセノン管34の発光に必要な300V程度の高圧電圧を作る昇圧部、キセノン管34およびモニターセンサー37は図1に記載したものと同一である。フラッシュ装置3がカメラ本体1に装着されるとそれぞれの接続部38と29が接続されてフラッシュ制御手段61はカメラ本体の制御手段41とのデータ通信が可能となる。フラッシュ制御手段61はカメラ本体の制御手段41からの通信内容に従って昇圧部62を制御してキセノン管34の発光開始や発光停止を行うとともに、モニターセンサー37の検出量をカメラ本体の制御手段41に対して出力する。
【0031】
続いて図6から始まるフローチャートに従って、カメラ本体の制御手段41の本発明に関わる具体的な動作シーケンスについて説明する。不図示の電源スイッチがオンされて制御手段41が動作可能となると、図6のステップ101(以下かっこ書きによりステップ数を表示する)より実行する。
【0032】
(101)撮影モード設定手段49による設定情報入力を行い、フラッシュ撮影モードとなっているかどうかをチェックする。もしも、フラッシュ撮影モードでない場合には(102)へ進む。
【0033】
(102)焦点検出用センサー20に対して制御信号を出力して、信号蓄積を行う。蓄積が終了すると焦点検出用センサー20に蓄積された信号を読み出しながらA/D変換を行う。さらに読み込まれた各デジタルデータに対してシェーディング等の必要な各種のデータ補正を行う。
【0034】
(103)焦点検出を行うために必要なレンズ情報等をレンズ制御手段51より入力し、これと焦点検出用センサー20から得られているデジタルデータより撮影画面各部の焦点状態を演算する。得られた撮影画面各部の焦点状態より例えば特開平11−190816号公報等に記載されている手法により画面内の焦点を合わせるべき領域を決定する。決定された領域における焦点状態に従って合焦となるためのレンズ移動量を算出し、算出されたレンズ移動量をレンズ制御手段51に出力する。これに従ってレンズ制御手段51は焦点調節用レンズを駆動するように第2のモータードライバ52に信号出力して、第2のモーター53を駆動する。これにより撮影レンズは被写体に対して合焦状態となる。
【0035】
(104)測光用センサー26より35分割された各受光部PD11〜PD57の信号を読み出しながらA/D変換を行い画面各部の輝度情報を入力し、さらに必要なレンズ情報等をレンズ制御手段51より入力して、入力された画面各部の輝度情報の補正を行い、各受光部毎の被写体輝度情報を得る。
【0036】
(105)得られた各受光部毎の被写体輝度情報より焦点検出部分に対応した分割部の輝度情報に重み付けを置いて画面全体の輝度を算出する。このようにして算出された画面全体の輝度情報に基づいて撮影に最適な撮像素子12の蓄積時間(すなわちシャッター速度)と絞り値を所定のプログラム線図より決定し表示器47に表示する。シャッター速度または絞り値の一方が予めプリセットされている場合は、そのプリセット値と組み合わせて最適な露出となる他方の因子を決定する。
【0037】
(106)レリーズスイッチ50がオンされるのを待つ。オンされていなければ前記(101)に戻るが、もしも、オンされると(107)へ進む。
【0038】
(107)第1のモータードライバ45に制御信号を出力して、第1のモーター46を駆動して主ミラー13および第1の反射ミラー14を跳ね上げる。続いて前記(105)のステップにて演算された絞り値情報をレンズ制御手段51に対して出力する。この情報に従ってレンズ制御手段51は絞り31を駆動するように第3のモータードライバ54に信号出力して、第3のモーター55を駆動する。これにより撮影レンズは絞り込み状態となる。
【0039】
(108)シャッター駆動手段42に対して信号出力を行い、シャッター10を開放状態とする。これにより撮像素子12には撮影レンズからの光線が入射して撮像が可能となる。前記(105)のステップにて演算された蓄積時間にしたがって撮像素子12の蓄積時間を設定して撮像を撮像素子12によって行うように信号処理回路43に対して指示を出す。これによって撮像が行われる。撮像が終了するとシャッター駆動手段42に対して信号出力を行い、シャッター10を遮光状態とする。これにより撮像素子12に対する撮影レンズからの光線が遮断される。
【0040】
(109)レンズ制御手段51に対して絞り31を開放するように情報出力する。この情報に従ってレンズ制御手段51は絞り31を駆動するように第3のモータードライバ54に信号出力して、第3のモーター55を駆動する。これにより撮影レンズは絞り開放状態となる。さらに、第1のモータードライバに制御信号を出力して、第1のモーター44を駆動して主ミラー13および第1の反射ミラー14をダウンさせる。
【0041】
(110)撮像画像情報を撮像素子12からA/D変換しながら読み出して、必要な補正処理や補間処理を行うように信号処理回路43に対して指示を出す。
【0042】
(111)信号処理回路43に対して指示を出して撮像画像情報に対してホワイトバランス調整を行う。もしも、ホワイトバランス設定手段48によりホワイトバランス設定値が手動設定されている場合は、その手動設定値に従って撮像画像情報の画面全体の赤チャンネルおよび青チャンネルのゲイン補正を行いホワイトバランス調整を行う。もしも、ホワイトバランス設定手段48により自動ホワイトバランス調整モードが設定されていれば、撮像画像情報において、1画面内を複数分割し、各領域毎の色差信号より被写体の白色領域を抽出する。さらに抽出された領域の信号に基づいて画面全体の赤チャンネルおよび青チャンネルのゲイン補正を行いホワイトバランス調整を行う。
【0043】
なお、ホワイトバランス設定値が手動設定されている場合とは撮影光源の色温度情報が指定されている場合や、デイライト或いは蛍光灯などの光源種が指定されている場合を指す。
【0044】
(112)ホワイトバランス調整が行われた撮像画像情報を記録ファイルフォーマットに圧縮変換して記憶手段44に記憶するように信号処理回路43に対して指示を出す。
【0045】
これでフラッシュ撮影モードではない場合の撮影シーケンスが終了する。
【0046】
前記(101)のステップにて撮影モード設定手段49による設定情報を入力し、フラッシュ撮影モードとなっている場合には図7の(121)へ進む。
【0047】
(121)撮影モード設定手段49による設定情報が通常のフラッシュ撮影モードとなっているか、フラッシュブラケット撮影モードとなっているかをチェックする。もしも、通常のフラッシュ撮影モードとなっている場合には(122)へ進む。
【0048】
(122)焦点検出用センサー20に対して制御信号を出力して、信号蓄積を行う。蓄積が終了すると焦点検出用センサー20に蓄積された信号を読み出しながらA/D変換を行う。さらに読み込まれた各デジタルデータに対してシェーディング等の必要な各種のデータ補正を行う。
【0049】
(123)前述した(103)のステップと同様に焦点検出を行うために必要なレンズ情報等をレンズ制御手段51より入力し、これと焦点検出用センサー20から得られているデジタルデータより撮影画面各部の焦点状態を演算する。さらに画面内の焦点を合わせるべき領域を決定する。決定された領域における焦点状態に従って合焦となるためのレンズ移動量を算出し、算出されたレンズ移動量をレンズ制御手段51に出力する。これに従ってレンズ制御手段51は焦点調節用レンズを駆動するように第2のモータードライバ52に信号出力して、第2のモーター53を駆動する。これにより撮影レンズは被写体に対して合焦状態となる。
【0050】
(124)測光用センサー26より35分割された各受光部PD11〜PD57の信号を読み出しながらA/D変換を行い画面各部の輝度情報を入力し、さらに必要なレンズ情報等をレンズ制御手段51より入力して、入力された画面各部の輝度情報の補正を行い、各受光部毎の被写体輝度情報を得る。各受光部毎の被写体輝度情報をB(n)と呼ぶこととする。nは35分割された各受光部に対応した11〜57のことである。
【0051】
(125)得られた各受光部毎の被写体輝度情報より焦点検出部分に対応した分割部の輝度情報に重み付けを置いて画面全体の輝度を算出する。このようにして算出された画面全体の輝度情報に基づいて撮影に最適な撮像素子12の蓄積時間(すなわちシャッター速度)と絞り値を所定のプログラム線図より決定し表示器47に表示する。シャッター速度または絞り値の一方が予めプリセットされている場合は、そのプリセット値と組み合わせて最適な露出となる他方の因子を決定する。なお、決定されたシャッター速度と絞り値とのアペックス値に基づく露出値をEvTと呼ぶこととする。
【0052】
EvT=Tv+Av (Tvはシャッター速度のアペックス値、Avは絞り値のアペックス値,第1の露出因子)
(126)レリーズスイッチ50がオンされるのを待つ。オンされていなければ前記(121)に戻るが、もしも、オンされると(127)へ進む。
【0053】
(127)フラッシュ制御手段61に通信してフラッシュの予備発光を指示する。これによりフラッシュ制御手段61はモニターセンサー37の出力信号に基づきキセノン管34が予め定められた予備発光量だけ発光するようにキセノン管34を発光させる。この予備発光が行われている間の被写体の輝度情報を得るために測光用センサー26より35分割された各受光部PD11〜PD57の信号を読み出しながらA/D変換を行い、画面各部の予備発光時輝度情報を入力する。各受光部毎の予備発光時輝度情報をP(n)と呼ぶこととする。nは35分割された各受光部に対応した11〜57のことである。
【0054】
(128)前記(127)のステップで得られた画面各部の予備発光時輝度情報は被写体に対する背景光とフラッシュの予備発光とが加算された状態での被写体輝度情報であるので、これをフラッシュの予備発光のみによる被写体輝度情報にするために各受光部PD11〜PD57毎に(127)のステップで得られた予備発光時輝度情報から(124)のステップで得られている背景光のみの被写体輝度情報を減算する。フラッシュの予備発光のみによる被写体輝度情報をF(n)と呼ぶこととする。nは35分割された各受光部に対応した11〜57のことである。
【0055】
F(n)=P(n)−B(n)
(129)前記(123)のステップにて焦点を合わせた画面内の領域に対応した領域のF(n)およびB(n)さらに(125)のステップで得られたEvTより予備発光に対する本発光のゲインG0を演算する。
【0056】
G0=log(EvT−B(n))/(F(n))
分子のEvT−B(n)は撮像に使うシャッター速度と絞り値の組み合わせによるEv値より主被写体に対する背景光による輝度情報を減算したものであるから、日中シンクロのように背景光が明るい状況であえてフラッシュを使う場合等を除いてはこの減算結果に見合う量だけフラッシュ光を主被写体に当てれば適正露出となる。分母のF(n)は主被写体領域におけるフラッシュ予備発光のみによる輝度情報であるから、この式で求められるG0は予備発光の光量に対して本発光時に何倍の発光光量とすれば主被写体が背景光とフラッシュ光の合計光量で適正露出となるかを表している。
【0057】
この演算されたG0に基づいてフラッシュの本発光量をフラッシュ制御手段61に通信する。
【0058】
(130)第1のモータードライバ45に制御信号を出力して、第1のモーター46を駆動して主ミラー13および第1の反射ミラー14を跳ね上げる。続いて前記(125)のステップにて演算された絞り値情報をレンズ制御手段51に対して出力する。この情報に従ってレンズ制御手段51は絞り31を駆動するように第3のモータードライバ54に信号出力して、第3のモーター55を駆動する。これにより撮影レンズは絞り込み状態となる。
【0059】
(131)シャッター駆動手段42に対して信号出力を行い、シャッター10を開放状態とする。これにより撮像素子12には撮影レンズからの光線が入射して撮像が可能となる。前記(125)のステップにて演算された蓄積時間にしたがって撮像素子12の蓄積時間を設定して撮像を撮像素子12によって行うように信号処理回路43に対して指示を出す。またこの撮像タイミングに同期してフラッシュ制御手段61に対してフラッシュの発光指示を与える。フラッシュ制御手段61は発光指示に従って、(129)のステップにて演算されたG0に対応する発光量となるようにモニターセンサー37の出力信号に基づきキセノン管34を発光させる。これによってフラッシュ発光を伴った撮像が行われる。撮像が終了するとシャッター駆動手段42に対して信号出力を行い、シャッター10を遮光状態とする。これにより撮像素子12に対する撮影レンズからの光線が遮断される。
【0060】
(132)レンズ制御手段51に対して絞り31を開放するように情報出力する。この情報に従ってレンズ制御手段51は絞り31を駆動するように第3のモータードライバ54に信号出力して、第3のモーター55を駆動する。これにより撮影レンズは絞り開放状態となる。さらに、第1のモータードライバ45に制御信号を出力して、第1のモーター46を駆動して主ミラー13および第1の反射ミラー14をダウンさせる。
【0061】
(133)撮像画像情報を撮像素子12からA/D変換しながら読み出して、必要な補正処理や補間処理を行うように信号処理回路43に対して指示を出す。
【0062】
(134)信号処理回路43に対して指示を出して撮像画像情報に対してホワイトバランス調整を行う。もしも、ホワイトバランス設定手段48によりホワイトバランス設定値が手動設定されている場合は、その手動設定値に従って撮像画像情報の画面全体の赤チャンネルおよび青チャンネルのゲイン補正を行いホワイトバランス調整を行う。もしも、ホワイトバランス設定手段48により自動ホワイトバランス調整モードが設定されていれば、撮像画像情報において、1画面内を複数分割し、各領域毎の色差信号より被写体の白色領域を抽出する。さらに抽出された領域の信号に基づいて画面全体の赤チャンネルおよび青チャンネルのゲイン補正を行いホワイトバランス調整を行う。
【0063】
(135)ホワイトバランス調整が行われた撮像画像情報を記録ファイルフォーマットに圧縮変換して記憶手段44に記憶するように信号処理回路43に対して指示を出す。
【0064】
これで通常のフラッシュ撮影モードの場合の撮影シーケンスが終了する。
【0065】
前記(121)のステップにて撮影モード設定手段49による設定情報がフラッシュブラケット撮影モードとなっている場合は、図8の(151)へ進む。
【0066】
(151)焦点検出用センサー20に対して制御信号を出力して、信号蓄積を行う。蓄積が終了すると焦点検出用センサー20に蓄積された信号を読み出しながらA/D変換を行う。さらに読み込まれた各デジタルデータに対してシェーディング等の必要な各種のデータ補正を行う。
【0067】
(152)前述した(103)のステップと同様に焦点検出を行うために必要なレンズ情報等をレンズ制御手段51より入力し、これと焦点検出用センサー20から得られているデジタルデータより撮影画面各部の焦点状態を演算する。さらに画面内の焦点を合わせるべき領域を決定する。決定された領域における焦点状態に従って合焦となるためのレンズ移動量を算出し、算出されたレンズ移動量をレンズ制御手段51に出力する。これに従ってレンズ制御手段51は焦点調節用レンズを駆動するように第2のモータードライバ52に信号出力して、第2のモーター53を駆動する。これにより撮影レンズは被写体に対して合焦状態となる。
【0068】
(153)測光用センサー26より35分割された各受光部PD11〜PD57の信号を読み出しながらA/D変換を行い画面各部の輝度情報を入力し、さらに必要なレンズ情報等をレンズ制御手段51より入力して、入力された画面各部の輝度情報の補正を行い、各受光部毎の被写体輝度情報を得る。各受光部毎の被写体輝度情報をB(n)と呼ぶこととする。nは35分割された各受光部に対応した11〜57のことである。
【0069】
(154)得られた各受光部毎の被写体輝度情報より焦点検出部分に対応した分割部の輝度情報に重み付けを置いて画面全体の輝度を算出する。このようにして算出された画面全体の輝度情報に基づいて撮影に最適な撮像素子12の蓄積時間(すなわちシャッター速度)と絞り値を所定のプログラム線図より決定し(請求項の背景光量決定手段に対応する)表示器47に表示する。シャッター速度または絞り値の一方が予めプリセットされている場合は、そのプリセット値と組み合わせて最適な露出となる他方の因子を決定する。なお、決定されたシャッター速度と絞り値とのアペックス値に基づく露出値をEvT1と呼ぶこととする。
【0070】
EvT1=Tv1+Av1
(Tv1、Av1は第1の撮像におけるシャッター速度、絞り値のアペックス値)
(155)レリーズスイッチ50がオンされるのを待つ。オンされていなければ前記(151)に戻るが、もしも、オンされると(156)へ進む。
【0071】
(156)フラッシュ制御手段61に通信してフラッシュの予備発光を指示する。これによりフラッシュ制御手段61はモニターセンサー37の出力信号に基づきキセノン管34が予め定められた予備発光量だけ発光するようにキセノン管34を発光させる。この予備発光が行われている間の被写体の輝度情報を得るために測光用センサー26より35分割された各受光部PD11〜PD57の信号を読み出しながらA/D変換を行い、画面各部の予備発光時輝度情報を入力する。各受光部毎の予備発光時輝度情報をP(n)と呼ぶこととする。nは35分割された各受光部に対応した11〜57のことである。
【0072】
(157)前記(156)のステップで得られた画面各部の予備発光時輝度情報は被写体に対する背景光とフラッシュの予備発光とが加算された状態での被写体輝度情報であるので、これをフラッシュの予備発光のみによる被写体輝度情報にするために各受光部PD11〜PD57毎に(156)のステップで得られた予備発光時輝度情報から(153)のステップで得られている背景光のみの被写体輝度情報を減算する。フラッシュの予備発光のみによる被写体輝度情報をF(n)と呼ぶこととする。nは35分割された各受光部に対応した11〜57のことである。
【0073】
F(n)=P(n)−B(n)
(158)前記(152)のステップにて焦点を合わせた画面内の領域に対応した領域のF(n)およびB(n)さらに(154)のステップで得られたEvT1より予備発光に対する本発光のゲインG1を前記(129)のステップの場合と同様に演算する。
【0074】
G1=log(EvT1−B(n))/(F(n))
前記(129)のステップで説明したように、この式で求められるG1は予備発光の光量に対して本発光時に何倍の発光光量とすれば主被写体が背景光とフラッシュ光の合計光量で適正露出となるかを表している。この演算されたG1に基づいてフラッシュの本発光量をフラッシュ制御手段61に通信する。
【0075】
(159)第1のモータードライバ45に制御信号を出力して、第1のモーター46を駆動して主ミラー13および第1の反射ミラー14を跳ね上げる。続いて前記(154)のステップにて演算された絞り値情報をレンズ制御手段51に対して出力する。この情報に従ってレンズ制御手段51は絞り31を駆動するように第3のモータードライバ54に信号出力して、第3のモーター55を駆動する。これにより撮影レンズは絞り込み状態となる。
【0076】
(160)シャッター駆動手段42に対して信号出力を行い、シャッター10を開放状態とする。これにより撮像素子12には撮影レンズからの光線が入射して撮像が可能となる。前記(154)のステップにて演算された蓄積時間にしたがって撮像素子12の蓄積時間を設定して撮像を撮像素子12によって行うように信号処理回路43に対して指示を出す。またこの撮像タイミングに同期してフラッシュ制御手段61に対してフラッシュの発光指示を与える。フラッシュ制御手段61は発光指示に従って、(158)のステップにて演算されたG1に対応する発光量となるようにモニターセンサー37の出力信号に基づきキセノン管34を発光させる。これによってフラッシュ発光を伴った第1の撮像が行われる。撮像が終了するとシャッター駆動手段42に対して信号出力を行い、シャッター10を遮光状態とする。これにより撮像素子12に対する撮影レンズからの光線が遮断される。
【0077】
(161)レンズ制御手段51に対して絞り31を開放するように情報出力する。この情報に従ってレンズ制御手段51は絞り31を駆動するように第3のモータードライバ54に信号出力して、第3のモーター55を駆動する。これにより撮影レンズは絞り開放状態となる。さらに、第1のモータードライバ45に制御信号を出力して、第1のモーター46を駆動して主ミラー13および第1の反射ミラー14をダウンさせる。
【0078】
(162)第1の撮像画像情報を撮像素子12からA/D変換しながら読み出して、必要な補正処理や補間処理を行うように信号処理回路43に対して指示を出す。
【0079】
(163)信号処理回路43に対して指示を出して第1の撮像画像情報に対してホワイトバランス調整を行う。もしも、ホワイトバランス設定手段48によりホワイトバランス設定値が手動設定されている場合は、その手動設定値に従って撮像画像情報の画面全体の赤チャンネルおよび青チャンネルのゲイン補正を行いホワイトバランス調整を行う。もしも、ホワイトバランス設定手段48により自動ホワイトバランス調整モードが設定されていれば、第1の撮像画像情報において、1画面内を複数分割し、各領域毎の色差信号より被写体の白色領域を抽出する。さらに抽出された領域の信号に基づいて画面全体の赤チャンネルおよび青チャンネルのゲイン補正を行いホワイトバランス調整を行う。このステップで実行したホワイトバランス調整量は後のステップでも使うので記憶しておく。
【0080】
(164)ホワイトバランス調整が行われた第1の撮像画像情報を記録ファイルフォーマットに圧縮変換して記憶手段44に記憶するように信号処理回路43に対して指示を出す。
【0081】
(165)前記(154)のステップにて演算されたシャッター速度と絞り値による露出値をブラケット撮影モードにおける所定量ΔEだけ減じて、第2の撮像用の露出因子を決定する。ΔEは予め設定された固定値でも良いし、ユーザーによる設定値としても良い。
【0082】
EvT2=EvT1−ΔE
EvT2=Tv2+Av2
(Tv2,Av2は第2の撮像におけるシャッター速度,絞り値のアペックス値)
(166)第2の撮像用のEvT2より第2の撮像における本発光のゲインG2を演算する。
【0083】
G2=log(EvT2−B(n))/(F(n))
第1の撮像に比べるとEvT2はEvT1よりもΔEだけ小さくなっているのでG2はG1よりも小さくなり、フラッシュ発光量は少なくなる。しかし、EvT2がEvT1よりもΔEだけ小さくなっているということはシャッター速度が遅くなるまたは絞りが開く方向になるので撮像時の背景光成分は大きくなる。よって主被写体のフラッシュ光と背景光の合計による露光量は第1の撮像時と同じ適正値を保ちながら、フラッシュ光成分が少なく背景光成分が多い撮像を行う制御ができる。この演算されたG2に基づいてフラッシュの本発光量をフラッシュ制御手段61に通信する。
【0084】
(167)第1のモータードライバ45に制御信号を出力して、第1のモーター46を駆動して主ミラー13および第1の反射ミラー14を跳ね上げる。続いて前記(165)のステップにて演算された絞り値情報をレンズ制御手段51に対して出力する。この情報に従ってレンズ制御手段51は絞り31を駆動するように第3のモータードライバ54に信号出力して、第3のモーター55を駆動する。これにより撮影レンズは絞り込み状態となる。
【0085】
(168)シャッター駆動手段42に対して信号出力を行い、シャッター10を開放状態とする。これにより撮像素子12には撮影レンズからの光線が入射して撮像が可能となる。前記(165)のステップにて演算された蓄積時間にしたがって撮像素子12の蓄積時間を設定して撮像を撮像素子12によって行うように信号処理回路43に対して指示を出す。またこの撮像タイミングに同期してフラッシュ制御手段61に対してフラッシュの発光指示を与える。フラッシュ制御手段61は発光指示に従って、(166)のステップにて演算されたG2に対応する発光量となるようにモニターセンサー37の出力信号に基づきキセノン管34を発光させる。これによってフラッシュ発光を伴った第2の撮像が行われる。撮像が終了するとシャッター駆動手段42に対して信号出力を行い、シャッター10を遮光状態とする。これにより撮像素子12に対する撮影レンズからの光線が遮断される。
【0086】
(169)レンズ制御手段51に対して絞り31を開放するように情報出力する。この情報に従ってレンズ制御手段51は絞り31を駆動するように第3のモータードライバ54に信号出力して、第3のモーター55を駆動する。これにより撮影レンズは絞り開放状態となる。さらに、第1のモータードライバ45に制御信号を出力して、第1のモーター45を駆動して主ミラー13および第1の反射ミラー14をダウンさせる。
【0087】
(170)第2の撮像画像情報を撮像素子12からA/D変換しながら読み出して、必要な補正処理や補間処理を行うように信号処理回路43に対して指示を出す。
【0088】
(171)信号処理回路43に対して指示を出して第2の撮像画像情報に対してホワイトバランス調整を行う。この場合、前記(163)のステップで実行したホワイトバランス調整量に従ってホワイトバランス調整を行う。
【0089】
(172)ホワイトバランス調整が行われた第2の撮像画像情報を記録ファイルフォーマットに圧縮変換して記憶手段44に記憶するように信号処理回路43に対して指示を出す。
【0090】
(173)前記(154)のステップにて演算されたシャッター速度と絞り値による露出値をブラケット撮影モードにおける所定量ΔEだけ増加させて、第3の撮像用の露出因子を決定する。ΔEは予め設定された固定値でも良いし、ユーザーによる設定値としても良いのは(165)のステップと同様である。
【0091】
EvT3=EvT1+ΔE
EvT3=Tv3+Av3
(Tv3,Av3は第3の撮像におけるシャッター速度,絞り値のアペックス値)
(174)第3の撮像用のEvT3より第3の撮像における本発光のゲインG3を演算する。
【0092】
G3=log(EvT3−B(n))/(F(n))
第1の撮像に比べるとEvT3はEvT1よりもΔEだけ大きくなっているのでG3はG1よりも大きくなり、フラッシュ発光量は多くなる。しかし、EvT3がEvT1よりもΔEだけ大きくなっているということはシャッター速度が速くなるまたは絞りが絞る方向になるので撮像時の背景光成分は小さくなる。よって主被写体のフラッシュ光と背景光の合計による露光量は第1の撮像時と同じ適正値を保ちながら、フラッシュ光成分が多く背景光成分が少ない撮像を行う制御ができる。この演算されたG3に基づいてフラッシュの本発光量をフラッシュ制御手段61に通信する。
【0093】
(175)第1のモータードライバ45に制御信号を出力して、第1のモーター46を駆動して主ミラー13および第1の反射ミラー14を跳ね上げる。続いて前記(173)のステップにて演算された絞り値情報をレンズ制御手段51に対して出力する。この情報に従ってレンズ制御手段51は絞り31を駆動するように第3のモータードライバ54に信号出力して、第3のモーター55を駆動する。これにより撮影レンズは絞り込み状態となる。
【0094】
(176)シャッター駆動手段42に対して信号出力を行い、シャッター10を開放状態とする。これにより撮像素子12には撮影レンズからの光線が入射して撮像が可能となる。前記(173)のステップにて演算された蓄積時間にしたがって撮像素子12の蓄積時間を設定して撮像を撮像素子12によって行うように信号処理回路43に対して指示を出す。またこの撮像タイミングに同期してフラッシュ制御手段61に対してフラッシュの発光指示を与える。フラッシュ制御手段61は発光指示に従って、(174)のステップにて演算されたG3に対応する発光量となるようにモニターセンサー37の出力信号に基づきキセノン管34を発光させる。これによってフラッシュ発光を伴った第3の撮像が行われる。撮像が終了するとシャッター駆動手段42に対して信号出力を行い、シャッター10を遮光状態とする。これにより撮像素子12に対する撮影レンズからの光線が遮断される。
【0095】
(177)レンズ制御手段51に対して絞り31を開放するように情報出力する。この情報に従ってレンズ制御手段51は絞り31を駆動するように第3のモータードライバ54に信号出力して、第3のモーター55を駆動する。これにより撮影レンズは絞り開放状態となる。さらに、第1のモータードライバ45に制御信号を出力して、第1のモーター46を駆動して主ミラー13および第1の反射ミラー14をダウンさせる。
【0096】
(178)第3の撮像画像情報を撮像素子12からA/D変換しながら読み出して、必要な補正処理や補間処理を行うように信号処理回路43に対して指示を出す。
【0097】
(179)信号処理回路43に対して指示を出して第3の撮像画像情報に対してホワイトバランス調整を行う。この場合、前記(163)のステップで実行したホワイトバランス調整量に従ってホワイトバランス調整を行う。
【0098】
(180)ホワイトバランス調整が行われた第3の撮像画像情報を記録ファイルフォーマットに圧縮変換して記憶手段44に記憶するように信号処理回路43に対して指示を出す。
【0099】
以上でブラケット撮影モードのシーケンスが終了する。
【0100】
以上説明したように、本実施例によれば、自動的に、フラッシュ(ストロボ)の光量と背景光(定常光)の光量とのミックス比率が異なりかつ主被写体が適正露出である画像を複数撮像し、撮影意図通りの画像を選択できるようにできる。また、自動的に、フラッシュ(ストロボ)の光量と背景光(定常光)の光量とのミックス比率が異なりかつ主被写体が適正露出である複数画像におけるホワイトバランス調整量を同一としたので、特に撮像画像の雰囲気を演出するタングステン光等の色味のある光源下での撮影時におけるミックス比率の差による画像の発色の変化を確実に反映することができる。
【0101】
なお、以上説明した実施例においては、(163)のステップにおける第1の撮像画像情報より得られたホワイトバランス調整量を第2の撮像画像と第3の撮像画像にも適用することで第1から第3の撮像画像に対するホワイトバランス調整量を同一とする形態としたが、他にも第1の撮像画像情報より得られたホワイトバランス調整量、第2の撮像画像情報より得られたホワイトバランス調整量、第3の撮像画像情報より得られたホワイトバランス調整量をそれぞれ求めてその平均値を算出し、算出された平均値による同一のホワイトバランス調整量を第1から第3の撮像画像に適用する形態も考えられる。
【0102】
【発明の効果】
以上説明したように、本発明によれば、自動的に、フラッシュ(ストロボ)の光量を変えて複数回撮像し、撮影意図通りの画像が得ることができる。
【0103】
詳しくは、自動的に、フラッシュ(ストロボ)の光量と背景光(定常光)の光量とのミックス比率が異なりかつ主被写体が適正露出である画像を複数撮像し、撮影意図通りの画像を選択できるようにできる。また、自動的に、フラッシュ(ストロボ)の光量と背景光(定常光)の光量とのミックス比率が異なりかつ主被写体が適正露出である複数画像におけるホワイトバランス調整量を同一とし、特に撮像画像の雰囲気を演出するタングステン光等の色味のある光源下での撮影時におけるミックス比率の差による画像の発色の変化を確実に反映させることができる。
【図面の簡単な説明】
【図1】実施例における光学部材の配置を示す断面図
【図2】焦点検出用センサーの構成を示す図
【図3】測光用センサーの構成を示す図
【図4】焦点検出位置を示す図
【図5】実施例における電気回路の構成を示すブロック図
【図6】カメラの動作を示すフローチャート(その1)
【図7】カメラの動作を示すフローチャート(その2)
【図8】カメラの動作を示すフローチャート(その3)
【符号の説明】
1 カメラ本体
2 交換レンズ
3 フラッシュ装置
12 撮像素子
41 カメラ制御手段
43 信号処理回路
51 レンズ制御手段
61 フラッシュ装置の制御手段
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging apparatus such as a digital still camera, and more particularly to flash photography control thereof.
[0002]
[Prior art]
At the time of flash (strobe) shooting with a digital still camera, the ratio of the amount of flash light and the amount of background light (steady light) mixed to obtain an image with the intended atmosphere depends on the photographer. There were many parts that depended on experience and feeling, so it was difficult to shoot.
[0003]
In view of this, Japanese Patent Application Laid-Open No. H11-157210 proposes that an image using stationary light and an image using strobe light are continuously photographed and stored, and then added and synthesized at an arbitrary ratio.
[0004]
[Patent Document 1]
JP 2000-307941 A
[0005]
[Problems to be solved by the invention]
However, in the method of continuously photographing an image using the steady light and an image using the strobe light and storing the images continuously, the addition and combining are performed at an arbitrary ratio when the subject moves during the continuous shooting. This may result in an unnatural image.
[0006]
The present invention has been made under such a situation, and an object of the present invention is to obtain an image as intended by an image pickup apparatus by automatically changing the light amount of a flash (strobe) a plurality of times to obtain an image. Things.
[0007]
[Means for Solving the Problems]
In order to solve the above-mentioned problems, in the present invention, the imaging apparatus is configured as in the following (1) to (3), the imaging method is configured as in the following (4), and the program is stored in the following (5). Configure as follows.
[0008]
(1) background light amount determining means for determining a background light amount by a first exposure factor based on luminance information of a subject and a predetermined program chart or a set value;
First flash light amount determination means for determining a flash light amount for adding a main subject to an appropriate exposure by adding the background light amount at the time of imaging;
The second exposure factor is determined by subtracting a predetermined amount from the first exposure factor determined by the background light amount determination means, and is added to the background light amount based on the second exposure factor to make the main subject proper exposure. Flash light amount determining means for determining a second flash light amount for
The third exposure factor is determined by adding a predetermined amount to the first exposure factor determined by the background light amount determining means, and is added to the background light amount based on the third exposure factor to make the main subject proper exposure. Flash light amount determining means for determining a third flash light amount for
The first imaging is performed based on the first exposure factor determined by the background light intensity determination unit and the flash light intensity determined by the first flash light intensity determination unit, and the second exposure factor and the second exposure factor are determined. Control means for performing a second imaging based on a flash light amount, and controlling to perform a third imaging based on the third exposure factor and the third flash light amount;
An imaging device comprising:
[0009]
(2) In the imaging device according to (1),
The control means includes: first image information obtained by the first imaging; second image information obtained by the second imaging; and third image information obtained by the third imaging. Wherein the white balance adjustment amounts are the same.
[0010]
(3) An image pickup apparatus characterized by comprising a control means for automatically controlling a plurality of images in which the mix ratio between the light amount of the flash light and the light amount of the background light is different and the main subject is properly exposed to a plurality of continuous images. apparatus.
[0011]
(4) An image pickup method characterized in that a plurality of images in which the mix ratio of the light amount of the flash light and the light amount of the background light are different and the main subject is appropriately exposed are automatically picked up continuously.
[0012]
(5) A program for realizing the imaging method according to (4).
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to examples of a camera. The present invention is not limited to the form of the apparatus, but can be implemented in the form of a method or a program for realizing the method, supported by the description of the embodiment.
[0014]
【Example】
FIG. 1 is a cross-sectional view mainly showing an arrangement of optical members in a “camera” according to an embodiment.
[0015]
FIG. 1 shows the configuration of a so-called single-lens reflex camera in which a lens is interchangeable, wherein 1 is a camera body, 2 is an interchangeable lens, and 3 is a flash device.
[0016]
In the camera body 1, reference numeral 10 denotes a mechanical shutter, reference numeral 11 denotes a low-pass filter, reference numeral 12 denotes an image sensor including an accumulation type photoelectric conversion element in an area such as CMOS or CCD, reference numeral 13 denotes a semi-transparent main mirror, and reference numeral 14 denotes a first reflection. The main mirror 13 and the first reflection mirror 14 are both mirrors that jump upward when photographing. Reference numeral 15 denotes a paraxial imaging surface conjugate to the surface of the image sensor 12 by the first reflection mirror 14, 16 denotes a second reflection mirror, 17 denotes an infrared cut filter, 18 denotes a stop having two openings, and 19 denotes a stop. A secondary imaging lens 20 is a focus detection sensor.
[0017]
The focus detecting sensor 20 is composed of an accumulation type photoelectric conversion element having an area such as a CMOS or a CCD. As shown in FIG. 2, light receiving sensor sections 20A and 20B divided into a large number corresponding to the two openings of the diaphragm 18 are provided. And two pairs of areas. Further, in addition to the light receiving sensor units 20A and 20B, a signal storage unit, a signal processing peripheral circuit, and the like are formed as an integrated circuit on the same chip.
[0018]
As described in detail in Japanese Patent Application Laid-Open No. 9-184965 and the like, the configuration from the first reflection mirror 14 to the focus detection sensor 20 is based on the focus by an image shift method at an arbitrary position in a shooting screen. This enables detection.
[0019]
Reference numeral 21 denotes a diffusing focusing plate, 22 denotes a pentaprism, 23 denotes an eyepiece, 24 denotes a third reflecting mirror, 25 denotes a condensing lens, and 26 denotes a photometric sensor for obtaining information on the brightness of the subject.
[0020]
The photometric sensor 26 is made of, for example, a photoelectric conversion element such as a silicon photodiode, and has a configuration in which a plurality of light-receiving sensors are divided in a grid as illustrated in FIG. And As shown, in this example, the inside of the light receiving visual field is divided into 7 columns × 5 rows = 35 divisions. The light receiving units divided into 35 are referred to as PD11 to PD57. It is well known that a signal amplifier, a signal processing peripheral circuit, and the like in addition to the light receiving sensor are formed as an integrated circuit on the same chip.
[0021]
The focus plate 21, the pentaprism 22, and the eyepiece 23 constitute a finder optical system. A part of the light beam reflected by the main mirror 13 and diffused by the focus plate 21 outside the optical axis enters the photometric sensor 26.
[0022]
FIG. 4 is a diagram showing a corresponding positional relationship between a focus detection position in a shooting screen by a focus detection unit such as the focus detection sensor 20 and the like and the photometric sensor 26 divided into 35 parts. In this example, the focus detection positions in the photographing screen are nine points from S01 to S23, and focus detection is performed at a position corresponding to the light receiving unit PD23 of the photometric sensor 26. Further, as shown in the figure, the focus detection position S02 performs focus detection at a position corresponding to the light receiving unit PD24 of the photometric sensor 26, and the focus detection position S03 focuses at a position corresponding to the light receiving unit PD25 of the photometric sensor 26. The focus detection is performed at the position corresponding to the light receiving portion PD45 of the photometric sensor 26 in the same manner.
[0023]
Returning to the description of FIG. Reference numeral 27 denotes a mount for mounting a photographic lens, 28 denotes a contact for performing information communication with the photographic lens, and 29 denotes a connection for mounting a flash device.
[0024]
In the interchangeable lens 2, reference numerals 30a to 30e denote optical lenses constituting a photographing lens, reference numeral 31 denotes an aperture, reference numeral 32 denotes a contact portion for performing information communication with the camera body, and reference numeral 33 denotes a mount portion for attachment to the camera.
[0025]
In the flash device 3, 34 is a xenon tube, 35 is a reflection shade, 36 is a Fresnel plate, 37 is a monitor sensor for monitoring the light emission amount of the xenon tube 34, and 38 is an attachment for attaching the flash device 3 to the camera body 1. Department.
[0026]
FIG. 5 is a block diagram showing a configuration example of an electric circuit of the camera body 1, the interchangeable lens 2 and the flash device 3 embodying the present invention. In the camera body 1, reference numeral 41 denotes a control means of a one-chip microcomputer having, for example, an ALU, a ROM, a RAM, an A / D converter, a timer, a serial communication port (SPI), and the like, and controls the entire camera mechanism and the like. . A specific control sequence of the control means 41 will be described later. The focus detection sensor 20 and the photometry sensor 26 are the same as those described in FIG. Output signals of the focus detection sensor 20 and the photometry sensor 26 are connected to an A / D converter input terminal of the control means 41.
[0027]
Reference numeral 42 denotes a shutter driving unit which is connected to an output terminal of the control unit 41 and drives the mechanical shutter 10 shown in FIG. Reference numeral 43 denotes a signal processing circuit which controls the image pickup device 12 in accordance with an instruction from the control unit 41, inputs an image pickup signal output from the image pickup device 12 while performing A / D conversion, performs signal processing, and obtains an image signal. Further, necessary image processing is performed on the obtained image signal. Reference numeral 44 denotes storage means such as a nonvolatile memory such as a flash ROM or an optical disk, and stores a captured image signal. Reference numeral 45 denotes a first motor driver, which is connected to and controlled by an output terminal of the control means 41 to perform the up / down operation of the main mirror 13 and the first reflection mirror 14. Reference numeral 47 denotes a display which is constituted by a liquid crystal panel or the like and displays the number of shots, date information, exposure information, and the like. Reference numeral 48 denotes white balance setting means for setting a white balance mode, etc., 49 denotes a photographing mode setting means, and 50 denotes a release switch. Reference numeral 28 denotes a contact portion shown in FIG. 1 to which input / output signals of a serial communication port of the control means 41 are connected. Reference numeral 29 denotes a flash device connection unit shown in FIG. 1, to which input / output signals of a serial communication port of the control unit 41 are connected so that communication with the flash device 3 is possible.
[0028]
In the interchangeable lens 2, reference numeral 51 denotes a lens control unit using a one-chip microcomputer having, for example, an ALU, a ROM, a RAM, a timer, and a serial communication port (SPI). Reference numeral 52 denotes a second motor driver, which is connected to and controlled by an output terminal of the lens control means 51 and drives a second motor 53 for performing focus adjustment. Reference numeral 54 denotes a third motor driver, which is connected to and controlled by an output terminal of the lens control means 51, and drives a third motor 55 for controlling the diaphragm 31 shown in FIG. Reference numeral 56 denotes a distance encoder for obtaining information on the extension amount of the focusing lens, that is, information on the subject distance, and is connected to the input terminal of the lens control means 51. Reference numeral 57 denotes a zoom encoder for obtaining focal length information at the time of photographing when the interchangeable lens 30 is a zoom lens, and is connected to an input terminal of the lens control means 51. Reference numeral 32 denotes a contact portion shown in FIG. 1, to which input / output signals of a serial communication port of the lens control unit 51 are connected.
[0029]
When the interchangeable lens 2 is mounted on the camera body 1, the respective contact portions 28 and 32 are connected, and the lens control means 51 can perform data communication with the control means 41 of the camera body. The lens-specific optical information necessary for the control means 41 of the camera body to perform focus detection and exposure calculation, information on the subject distance based on the distance encoder 56 or the zoom encoder 57, or the focal length information is provided by the lens control means 51. Is output to the control means 41 of the camera body by data communication. Further, as a result of the focus detection and the exposure calculation performed by the control means 41 of the camera body, the obtained focus adjustment information and aperture information are output from the control means 41 of the camera body to the lens control means 51 by data communication, and the lens The control means 51 controls the second motor driver 52 according to the focus adjustment information, and controls the third motor driver 54 according to the aperture information.
[0030]
In the flash device 3, reference numeral 61 denotes a flash control means by a one-chip microcomputer having an ALU, a ROM, a RAM, an A / D converter, a timer, a serial communication port (SPI) or the like built therein. The booster, the xenon tube 34 and the monitor sensor 37 for generating a high voltage of about 300 V necessary for light emission are the same as those shown in FIG. When the flash device 3 is mounted on the camera body 1, the respective connecting portions 38 and 29 are connected, and the flash control means 61 can perform data communication with the control means 41 of the camera body. The flash control unit 61 controls the boosting unit 62 according to the communication content from the control unit 41 of the camera main body to start or stop the light emission of the xenon tube 34, and also transmits the detection amount of the monitor sensor 37 to the control unit 41 of the camera main body. Output to
[0031]
Next, a specific operation sequence of the control unit 41 of the camera body according to the present invention will be described with reference to a flowchart starting from FIG. When the power switch (not shown) is turned on and the control means 41 becomes operable, the processing is executed from step 101 in FIG. 6 (hereinafter, the number of steps is indicated by parentheses).
[0032]
(101) The setting information is inputted by the photographing mode setting means 49, and it is checked whether or not the flash photographing mode is set. If the mode is not the flash photography mode, the process proceeds to (102).
[0033]
(102) A control signal is output to the focus detection sensor 20 to perform signal accumulation. When the accumulation is completed, A / D conversion is performed while reading out the signal accumulated in the focus detection sensor 20. Further, various necessary data correction such as shading is performed on the read digital data.
[0034]
(103) Lens information and the like necessary for focus detection are input from the lens control means 51, and the focus state of each part of the photographing screen is calculated from this and digital data obtained from the focus detection sensor 20. From the obtained focus state of each part of the photographing screen, an area to be focused in the screen is determined by a method described in, for example, JP-A-11-190816. The lens moving amount for focusing is calculated according to the focus state in the determined area, and the calculated lens moving amount is output to the lens control unit 51. In accordance with this, the lens control means 51 outputs a signal to the second motor driver 52 so as to drive the focus adjusting lens, and drives the second motor 53. As a result, the photographing lens is brought into focus with respect to the subject.
[0035]
(104) A / D conversion is performed while reading out the signals of the light receiving units PD11 to PD57 divided by 35 from the photometric sensor 26, luminance information of each part of the screen is input, and further necessary lens information and the like are input from the lens control unit 51. Then, the brightness information of each section of the input screen is corrected, and the subject brightness information of each light receiving section is obtained.
[0036]
(105) The luminance of the entire screen is calculated by weighting the luminance information of the division unit corresponding to the focus detection part from the obtained luminance information of the subject for each light receiving unit. Based on the luminance information of the entire screen calculated in this way, the storage time (i.e., shutter speed) and aperture value of the image sensor 12 that are optimal for photographing are determined from a predetermined program diagram and displayed on the display 47. When one of the shutter speed and the aperture value is preset, the other factor that provides the optimum exposure is determined in combination with the preset value.
[0037]
(106) Wait until the release switch 50 is turned on. If it is not turned on, the process returns to (101), but if it is turned on, the process proceeds to (107).
[0038]
(107) A control signal is output to the first motor driver 45 to drive the first motor 46 to flip up the main mirror 13 and the first reflection mirror 14. Subsequently, the aperture value information calculated in the step (105) is output to the lens control means 51. According to this information, the lens control unit 51 outputs a signal to the third motor driver 54 so as to drive the diaphragm 31 and drives the third motor 55. As a result, the taking lens is brought into the aperture state.
[0039]
(108) A signal is output to the shutter driving unit 42 to open the shutter 10. Accordingly, light rays from the photographing lens are incident on the image pickup device 12 and imaging can be performed. The accumulation time of the image sensor 12 is set in accordance with the accumulation time calculated in the step (105), and an instruction is issued to the signal processing circuit 43 so that imaging is performed by the image sensor 12. Thereby, imaging is performed. When the imaging is completed, a signal is output to the shutter driving unit 42, and the shutter 10 is set in a light-shielding state. As a result, light rays from the imaging lens to the image sensor 12 are blocked.
[0040]
(109) Information is output to the lens control means 51 so that the aperture 31 is opened. According to this information, the lens control unit 51 outputs a signal to the third motor driver 54 so as to drive the diaphragm 31 and drives the third motor 55. As a result, the taking lens is brought into the aperture open state. Further, a control signal is output to the first motor driver to drive the first motor 44 to lower the main mirror 13 and the first reflection mirror 14.
[0041]
(110) Read out the captured image information from the image sensor 12 while performing A / D conversion, and instruct the signal processing circuit 43 to perform necessary correction processing and interpolation processing.
[0042]
(111) An instruction is issued to the signal processing circuit 43 to perform white balance adjustment on the captured image information. If the white balance setting value is manually set by the white balance setting means 48, the white balance is adjusted by performing gain correction of the red channel and blue channel of the entire screen of the captured image information according to the manual setting value. If the automatic white balance adjustment mode is set by the white balance setting unit 48, one screen is divided into a plurality of pieces in the captured image information, and a white area of the subject is extracted from a color difference signal for each area. Further, based on the signal of the extracted area, gain correction of the red channel and the blue channel of the entire screen is performed to perform white balance adjustment.
[0043]
Note that the case where the white balance setting value is manually set refers to a case where color temperature information of a photographing light source is designated or a case where a light source type such as a daylight or a fluorescent lamp is designated.
[0044]
(112) An instruction is issued to the signal processing circuit 43 so that the captured image information on which the white balance adjustment has been performed is compression-converted into a recording file format and stored in the storage unit 44.
[0045]
This ends the shooting sequence in the case where the flash shooting mode is not set.
[0046]
In the step (101), the setting information by the photographing mode setting means 49 is input, and when the flash photographing mode is set, the process proceeds to (121) in FIG.
[0047]
(121) It is checked whether the setting information by the shooting mode setting means 49 is the normal flash shooting mode or the flash bracket shooting mode. If the normal flash shooting mode is set, the process proceeds to (122).
[0048]
(122) A control signal is output to the focus detection sensor 20 to perform signal accumulation. When the accumulation is completed, A / D conversion is performed while reading out the signal accumulated in the focus detection sensor 20. Further, various necessary data correction such as shading is performed on the read digital data.
[0049]
(123) Lens information and the like necessary for performing focus detection are input from the lens control unit 51 in the same manner as in the above-described step (103), and a photographing screen is obtained from the digital data obtained from the lens control unit 20. The focus state of each part is calculated. Further, an area to be focused on the screen is determined. The lens moving amount for focusing is calculated according to the focus state in the determined area, and the calculated lens moving amount is output to the lens control unit 51. In accordance with this, the lens control means 51 outputs a signal to the second motor driver 52 so as to drive the focus adjusting lens, and drives the second motor 53. As a result, the photographing lens is brought into focus with respect to the subject.
[0050]
(124) A / D conversion is performed while reading out the signals of the light receiving units PD11 to PD57 divided by 35 from the photometric sensor 26, luminance information of each part of the screen is input, and further necessary lens information and the like are input from the lens control unit 51. Then, the brightness information of each section of the input screen is corrected, and the subject brightness information of each light receiving section is obtained. The subject brightness information for each light receiving unit is called B (n). n is 11 to 57 corresponding to each light receiving unit divided into 35.
[0051]
(125) The luminance of the entire screen is calculated by weighting the luminance information of the division unit corresponding to the focus detection part from the obtained luminance information of the subject for each light receiving unit. Based on the luminance information of the entire screen calculated in this way, the storage time (i.e., shutter speed) and aperture value of the image sensor 12 that are optimal for photographing are determined from a predetermined program diagram and displayed on the display 47. When one of the shutter speed and the aperture value is preset, the other factor that provides the optimum exposure is determined in combination with the preset value. The exposure value based on the determined apex value of the shutter speed and the aperture value is called EvT.
[0052]
EvT = Tv + Av (Tv is the apex value of the shutter speed, Av is the apex value of the aperture value, the first exposure factor)
(126) Wait until the release switch 50 is turned on. If it is not turned on, the process returns to (121), but if it is turned on, the process proceeds to (127).
[0053]
(127) The flash controller 61 communicates with the flash controller 61 to instruct preliminary flash emission. As a result, the flash control means 61 causes the xenon tube 34 to emit light based on the output signal of the monitor sensor 37 so that the xenon tube 34 emits a predetermined amount of preliminary light emission. A / D conversion is performed while reading out the signals of the light receiving units PD11 to PD57 divided into 35 by the photometric sensor 26 in order to obtain the luminance information of the subject during the preliminary light emission, and the preliminary light emission of each part of the screen is performed. Enter hourly luminance information. The pre-emission luminance information for each light receiving unit is referred to as P (n). n is 11 to 57 corresponding to each light receiving unit divided into 35.
[0054]
(128) Since the pre-flash luminance information of each part of the screen obtained in the step (127) is subject luminance information in a state where the background light for the subject and the pre-flash of the flash are added, this is used as the flash luminance information. In order to obtain the subject luminance information based on only the preliminary light emission, the subject luminance of only the background light obtained in the step (124) is obtained from the preliminary light emission luminance information obtained in the step (127) for each of the light receiving units PD11 to PD57. Subtract information. The subject luminance information based on only the preliminary flash light emission is referred to as F (n). n is 11 to 57 corresponding to each light receiving unit divided into 35.
[0055]
F (n) = P (n) -B (n)
(129) F (n) and B (n) in a region corresponding to the region in the screen focused in step (123), and main emission from preliminary emission from EvT obtained in step (125) Is calculated.
[0056]
G0 = log 2 (EvT-B (n)) / (F (n))
Since the numerator EvT-B (n) is obtained by subtracting the luminance information of the main subject from the background light from the Ev value obtained by a combination of the shutter speed and the aperture value used for imaging, the background light is bright like a daytime synchro. Except for the case where a flash is used, if the flash light is applied to the main subject by an amount corresponding to the subtraction result, the proper exposure is obtained. Since F (n) of the denominator is luminance information based on only the flash preliminary light emission in the main subject area, G0 obtained by this equation is determined by multiplying the light emission amount of the preliminary light emission by the main light emission when the main light emission is performed. It indicates whether the proper exposure is obtained by the total light amount of the background light and the flash light.
[0057]
The main light emission amount of the flash is communicated to the flash control means 61 based on the calculated G0.
[0058]
(130) A control signal is output to the first motor driver 45 to drive the first motor 46 to flip up the main mirror 13 and the first reflection mirror 14. Subsequently, the aperture value information calculated in the step (125) is output to the lens control means 51. According to this information, the lens control unit 51 outputs a signal to the third motor driver 54 so as to drive the diaphragm 31 and drives the third motor 55. As a result, the taking lens is brought into the aperture state.
[0059]
(131) A signal is output to the shutter driving means 42 to open the shutter 10. Accordingly, light rays from the photographing lens are incident on the image pickup device 12 and imaging can be performed. The accumulation time of the image sensor 12 is set in accordance with the accumulation time calculated in the step (125), and the signal processing circuit 43 is instructed to perform the image pickup by the image sensor 12. In addition, a flash emission instruction is given to the flash control means 61 in synchronization with the imaging timing. In accordance with the light emission instruction, the flash control means 61 causes the xenon tube 34 to emit light based on the output signal of the monitor sensor 37 so that the light emission amount corresponds to G0 calculated in step (129). Thus, imaging with flash emission is performed. When the imaging is completed, a signal is output to the shutter driving unit 42, and the shutter 10 is set in a light-shielding state. As a result, light rays from the imaging lens to the image sensor 12 are blocked.
[0060]
(132) Information is output to the lens control means 51 so that the aperture 31 is opened. According to this information, the lens control unit 51 outputs a signal to the third motor driver 54 so as to drive the diaphragm 31 and drives the third motor 55. As a result, the taking lens is brought into the aperture open state. Further, a control signal is output to the first motor driver 45 to drive the first motor 46 to lower the main mirror 13 and the first reflection mirror 14.
[0061]
(133) The captured image information is read from the image sensor 12 while performing A / D conversion, and an instruction is issued to the signal processing circuit 43 to perform necessary correction processing and interpolation processing.
[0062]
(134) An instruction is issued to the signal processing circuit 43 to perform white balance adjustment on the captured image information. If the white balance setting value is manually set by the white balance setting means 48, the white balance is adjusted by performing gain correction of the red channel and blue channel of the entire screen of the captured image information according to the manual setting value. If the automatic white balance adjustment mode is set by the white balance setting unit 48, one screen is divided into a plurality of pieces in the captured image information, and a white area of the subject is extracted from a color difference signal for each area. Further, based on the signal of the extracted area, gain correction of the red channel and the blue channel of the entire screen is performed to perform white balance adjustment.
[0063]
(135) An instruction is issued to the signal processing circuit 43 to compress and convert the captured image information on which the white balance adjustment has been performed into a recording file format and store it in the storage unit 44.
[0064]
This completes the shooting sequence in the normal flash shooting mode.
[0065]
If the setting information by the photographing mode setting means 49 is the flash bracket photographing mode in the step (121), the process proceeds to (151) in FIG.
[0066]
(151) A control signal is output to the focus detection sensor 20 to perform signal accumulation. When the accumulation is completed, A / D conversion is performed while reading out the signal accumulated in the focus detection sensor 20. Further, various necessary data correction such as shading is performed on the read digital data.
[0067]
(152) As in the step (103) described above, lens information and the like necessary for performing focus detection are input from the lens control unit 51, and a photographing screen is obtained based on this and digital data obtained from the focus detection sensor 20. The focus state of each part is calculated. Further, an area to be focused on the screen is determined. The lens moving amount for focusing is calculated according to the focus state in the determined area, and the calculated lens moving amount is output to the lens control unit 51. In accordance with this, the lens control means 51 outputs a signal to the second motor driver 52 so as to drive the focus adjusting lens, and drives the second motor 53. As a result, the photographing lens is brought into focus with respect to the subject.
[0068]
(153) A / D conversion is performed while reading out the signals of the light receiving units PD11 to PD57 divided by 35 from the photometric sensor 26, luminance information of each part of the screen is input, and further necessary lens information and the like are input from the lens control unit 51. Then, the brightness information of each section of the input screen is corrected, and the subject brightness information of each light receiving section is obtained. The subject brightness information for each light receiving unit is called B (n). n is 11 to 57 corresponding to each light receiving unit divided into 35.
[0069]
(154) The luminance of the entire screen is calculated by weighting the luminance information of the division unit corresponding to the focus detection part from the obtained luminance information of the subject for each light receiving unit. The storage time (ie, shutter speed) and aperture value of the image pickup device 12 that are optimal for photographing are determined from a predetermined program diagram based on the luminance information of the entire screen calculated in this manner. Is displayed on the display 47. When one of the shutter speed and the aperture value is preset, the other factor that provides the optimum exposure is determined in combination with the preset value. The exposure value based on the determined apex value of the shutter speed and the aperture value is called EvT1.
[0070]
EvT1 = Tv1 + Av1
(Tv1 and Av1 are the shutter speed and the apex value of the aperture value in the first imaging)
(155) Wait until the release switch 50 is turned on. If the switch is not turned on, the process returns to (151). If the switch is turned on, the process proceeds to (156).
[0071]
(156) The flash controller 61 communicates with the flash controller 61 to instruct preliminary flash emission. As a result, the flash control means 61 causes the xenon tube 34 to emit light based on the output signal of the monitor sensor 37 so that the xenon tube 34 emits a predetermined amount of preliminary light emission. A / D conversion is performed while reading out the signals of the light receiving units PD11 to PD57 divided into 35 by the photometric sensor 26 in order to obtain the luminance information of the subject during the preliminary light emission, and the preliminary light emission of each part of the screen is performed. Enter hourly luminance information. The pre-emission luminance information for each light receiving unit is referred to as P (n). n is 11 to 57 corresponding to each light receiving unit divided into 35.
[0072]
(157) Since the pre-flash luminance information of each part of the screen obtained in the step (156) is subject luminance information in a state where the background light for the subject and the pre-flash of the flash are added, the luminance information of the flash is used. In order to obtain the subject luminance information only by the preliminary light emission, the subject luminance of only the background light obtained in the step (153) is obtained from the preliminary light emission luminance information obtained in the step (156) for each of the light receiving units PD11 to PD57. Subtract information. The subject luminance information based on only the preliminary flash light emission is referred to as F (n). n is 11 to 57 corresponding to each light receiving unit divided into 35.
[0073]
F (n) = P (n) -B (n)
(158) F (n) and B (n) in a region corresponding to the region in the screen focused in step (152), and main emission from preliminary emission from EvT1 obtained in step (154) Is calculated in the same manner as in step (129).
[0074]
G1 = log 2 (EvT1-B (n)) / (F (n))
As described in the above step (129), G1 obtained by this equation is appropriate for the total light amount of the background light and the flash light, provided that the light emission amount at the time of the main light emission is several times the light amount of the preliminary light emission. Indicates whether it will be exposed. The main light emission amount of the flash is communicated to the flash control means 61 based on the calculated G1.
[0075]
(159) A control signal is output to the first motor driver 45 to drive the first motor 46 to flip up the main mirror 13 and the first reflection mirror 14. Subsequently, the aperture value information calculated in the step (154) is output to the lens control means 51. According to this information, the lens control unit 51 outputs a signal to the third motor driver 54 so as to drive the diaphragm 31 and drives the third motor 55. As a result, the taking lens is brought into the aperture state.
[0076]
(160) A signal is output to the shutter driving means 42 to open the shutter 10. Accordingly, light rays from the photographing lens are incident on the image pickup device 12 and imaging can be performed. The accumulation time of the image sensor 12 is set in accordance with the accumulation time calculated in the step (154), and the signal processing circuit 43 is instructed to perform the image pickup by the image sensor 12. In addition, a flash emission instruction is given to the flash control means 61 in synchronization with the imaging timing. In accordance with the light emission instruction, the flash control means 61 causes the xenon tube 34 to emit light based on the output signal of the monitor sensor 37 so that the light emission amount corresponds to G1 calculated in step (158). As a result, the first imaging with flash emission is performed. When the imaging is completed, a signal is output to the shutter driving unit 42, and the shutter 10 is set in a light-shielding state. As a result, light rays from the imaging lens to the image sensor 12 are blocked.
[0077]
(161) Information is output to the lens control means 51 so that the aperture 31 is opened. According to this information, the lens control unit 51 outputs a signal to the third motor driver 54 so as to drive the diaphragm 31 and drives the third motor 55. As a result, the taking lens is brought into the aperture open state. Further, a control signal is output to the first motor driver 45 to drive the first motor 46 to lower the main mirror 13 and the first reflection mirror 14.
[0078]
(162) Read out the first captured image information from the image sensor 12 while performing A / D conversion, and instruct the signal processing circuit 43 to perform necessary correction processing and interpolation processing.
[0079]
(163) An instruction is issued to the signal processing circuit 43 to perform white balance adjustment on the first captured image information. If the white balance setting value is manually set by the white balance setting means 48, the white balance is adjusted by performing gain correction of the red channel and blue channel of the entire screen of the captured image information according to the manual setting value. If the automatic white balance adjustment mode is set by the white balance setting means 48, one screen is divided into a plurality of sections in the first captured image information, and a white area of the subject is extracted from a color difference signal for each area. . Further, based on the signal of the extracted area, gain correction of the red channel and the blue channel of the entire screen is performed to perform white balance adjustment. The white balance adjustment amount executed in this step is stored because it is used in a later step.
[0080]
(164) An instruction is issued to the signal processing circuit 43 so that the first captured image information on which the white balance adjustment has been performed is compression-converted into a recording file format and stored in the storage unit 44.
[0081]
(165) The exposure value based on the shutter speed and the aperture value calculated in the step (154) is reduced by a predetermined amount ΔE in the bracket shooting mode to determine the second exposure factor for imaging. ΔE may be a fixed value set in advance or a value set by a user.
[0082]
EvT2 = EvT1-ΔE
EvT2 = Tv2 + Av2
(Tv2, Av2 are the shutter speed and the apex value of the aperture value in the second imaging)
(166) The main emission gain G2 in the second imaging is calculated from the second imaging EvT2.
[0083]
G2 = log 2 (EvT2-B (n)) / (F (n))
Since EvT2 is smaller than EvT1 by ΔE as compared with the first imaging, G2 is smaller than G1 and the flash emission amount is smaller. However, the fact that EvT2 is smaller than EvT1 by ΔE means that the shutter speed becomes slower or the aperture opens, so that the background light component at the time of imaging becomes larger. Therefore, it is possible to control to perform imaging in which the flash light component is small and the background light component is large while the exposure amount based on the sum of the flash light and the background light of the main subject remains the same appropriate value as in the first imaging. The main light emission amount of the flash is communicated to the flash control means 61 based on the calculated G2.
[0084]
(167) A control signal is output to the first motor driver 45 to drive the first motor 46 to flip up the main mirror 13 and the first reflection mirror 14. Subsequently, the aperture value information calculated in the step (165) is output to the lens control means 51. According to this information, the lens control unit 51 outputs a signal to the third motor driver 54 so as to drive the diaphragm 31 and drives the third motor 55. As a result, the taking lens is brought into the aperture state.
[0085]
(168) A signal is output to the shutter drive unit 42 to open the shutter 10. Accordingly, light rays from the photographing lens are incident on the image pickup device 12 and imaging can be performed. The accumulation time of the image sensor 12 is set in accordance with the accumulation time calculated in the step (165), and an instruction is issued to the signal processing circuit 43 so that the image sensor 12 performs imaging. In addition, a flash emission instruction is given to the flash control means 61 in synchronization with the imaging timing. In accordance with the light emission instruction, the flash control means 61 causes the xenon tube 34 to emit light based on the output signal of the monitor sensor 37 so that the light emission amount corresponds to G2 calculated in step (166). As a result, the second imaging with flash emission is performed. When the imaging is completed, a signal is output to the shutter driving unit 42, and the shutter 10 is set in a light-shielding state. As a result, light rays from the imaging lens to the image sensor 12 are blocked.
[0086]
(169) Information is output to the lens control unit 51 so that the aperture 31 is opened. According to this information, the lens control unit 51 outputs a signal to the third motor driver 54 so as to drive the diaphragm 31 and drives the third motor 55. As a result, the taking lens is brought into the aperture open state. Further, a control signal is output to the first motor driver 45 to drive the first motor 45 to lower the main mirror 13 and the first reflection mirror 14.
[0087]
(170) Read out the second captured image information from the image sensor 12 while performing A / D conversion, and instruct the signal processing circuit 43 to perform necessary correction processing and interpolation processing.
[0088]
(171) An instruction is issued to the signal processing circuit 43 to perform white balance adjustment on the second captured image information. In this case, the white balance is adjusted according to the white balance adjustment amount executed in the step (163).
[0089]
(172) An instruction is issued to the signal processing circuit 43 so that the second captured image information on which the white balance adjustment has been performed is compression-converted into a recording file format and stored in the storage unit 44.
[0090]
(173) The exposure value based on the shutter speed and aperture value calculated in the step (154) is increased by a predetermined amount ΔE in the bracket photographing mode to determine the third exposure factor for imaging. ΔE may be a fixed value set in advance or a value set by the user as in the step (165).
[0091]
EvT3 = EvT1 + ΔE
EvT3 = Tv3 + Av3
(Tv3, Av3 are the shutter speed and the apex value of the aperture value in the third imaging)
(174) The main emission gain G3 in the third imaging is calculated from the third imaging EvT3.
[0092]
G3 = log 2 (EvT3-B (n)) / (F (n))
Since EvT3 is larger than EvT1 by ΔE compared to the first imaging, G3 is larger than G1 and the flash emission amount is larger. However, the fact that EvT3 is larger than EvT1 by ΔE means that the shutter speed becomes faster or the aperture becomes narrower, so that the background light component at the time of imaging becomes smaller. Therefore, it is possible to control to perform imaging in which the flash light component is large and the background light component is small while the exposure amount based on the sum of the flash light and the background light of the main subject remains the same appropriate value as in the first imaging. The main light emission amount of the flash is communicated to the flash control means 61 based on the calculated G3.
[0093]
(175) A control signal is output to the first motor driver 45 to drive the first motor 46 to flip up the main mirror 13 and the first reflection mirror 14. Subsequently, the aperture value information calculated in the step (173) is output to the lens control means 51. According to this information, the lens control unit 51 outputs a signal to the third motor driver 54 so as to drive the diaphragm 31 and drives the third motor 55. As a result, the taking lens is brought into the aperture state.
[0094]
(176) A signal is output to the shutter driving means 42 to open the shutter 10. Accordingly, light rays from the photographing lens are incident on the image pickup device 12 and imaging can be performed. The storage time of the image sensor 12 is set in accordance with the storage time calculated in the step (173), and an instruction is issued to the signal processing circuit 43 so that imaging is performed by the image sensor 12. In addition, a flash emission instruction is given to the flash control means 61 in synchronization with the imaging timing. In response to the light emission instruction, the flash control means 61 causes the xenon tube 34 to emit light based on the output signal of the monitor sensor 37 so that the light emission amount corresponds to G3 calculated in step (174). As a result, the third imaging with flash emission is performed. When the imaging is completed, a signal is output to the shutter driving unit 42, and the shutter 10 is set in a light-shielding state. As a result, light rays from the imaging lens to the image sensor 12 are blocked.
[0095]
(177) Information is output to the lens controller 51 so that the aperture 31 is opened. According to this information, the lens control unit 51 outputs a signal to the third motor driver 54 so as to drive the diaphragm 31 and drives the third motor 55. As a result, the taking lens is brought into the aperture open state. Further, a control signal is output to the first motor driver 45 to drive the first motor 46 to lower the main mirror 13 and the first reflection mirror 14.
[0096]
(178) The third captured image information is read from the image sensor 12 while performing A / D conversion, and an instruction is issued to the signal processing circuit 43 to perform necessary correction processing and interpolation processing.
[0097]
(179) An instruction is issued to the signal processing circuit 43 to perform white balance adjustment on the third captured image information. In this case, the white balance is adjusted according to the white balance adjustment amount executed in the step (163).
[0098]
(180) An instruction is issued to the signal processing circuit 43 so that the third captured image information on which the white balance adjustment has been performed is compression-converted into a recording file format and stored in the storage means 44.
[0099]
Thus, the sequence of the bracket shooting mode ends.
[0100]
As described above, according to the present embodiment, a plurality of images in which the mix ratio between the light amount of the flash (strobe) and the light amount of the background light (stationary light) is different and the main subject is properly exposed are automatically captured. Then, it is possible to select an image as intended. In addition, since the mix ratio of the light amount of the flash (strobe) and the light amount of the background light (stationary light) is automatically different and the white balance adjustment amounts of a plurality of images in which the main subject is properly exposed are set to the same value, especially the image pickup is performed. It is possible to reliably reflect the change in the color development of the image due to the difference in the mix ratio at the time of shooting under a colored light source such as tungsten light which produces an atmosphere of the image.
[0101]
In the above-described embodiment, the first balance is obtained by applying the white balance adjustment amount obtained from the first captured image information in the step (163) to the second captured image and the third captured image. , The white balance adjustment amounts for the third captured image are the same, but the white balance adjustment amount obtained from the first captured image information and the white balance adjustment amount obtained from the second The adjustment amount and the white balance adjustment amount obtained from the third captured image information are obtained, and the average value is calculated, and the same white balance adjustment amount based on the calculated average value is applied to the first to third captured images. The form of application is also conceivable.
[0102]
【The invention's effect】
As described above, according to the present invention, it is possible to automatically change the light amount of a flash (strobe) and perform image capturing a plurality of times to obtain an image as intended.
[0103]
More specifically, it is possible to automatically capture a plurality of images in which the mix ratio of the light amount of the flash (strobe) and the light amount of the background light (stationary light) is different and the main subject is properly exposed, and select an image as intended. I can do it. In addition, automatically, the white balance adjustment amounts in a plurality of images in which the mix ratio of the light amount of the flash (strobe) and the light amount of the background light (stationary light) are different and the main subject is properly exposed are the same, and particularly, It is possible to reliably reflect a change in the color development of an image due to a difference in the mix ratio when photographing under a tinted light source such as tungsten light that creates an atmosphere.
[Brief description of the drawings]
FIG. 1 is a cross-sectional view illustrating an arrangement of optical members in an embodiment.
FIG. 2 is a diagram illustrating a configuration of a focus detection sensor.
FIG. 3 is a diagram showing a configuration of a photometric sensor.
FIG. 4 is a diagram showing a focus detection position.
FIG. 5 is a block diagram showing a configuration of an electric circuit in the embodiment.
FIG. 6 is a flowchart showing the operation of the camera (part 1).
FIG. 7 is a flowchart showing the operation of the camera (part 2).
FIG. 8 is a flowchart showing the operation of the camera (part 3).
[Explanation of symbols]
1 Camera body
2 interchangeable lenses
3 Flash device
12 Image sensor
41 Camera control means
43 signal processing circuit
51 Lens control means
61 Flash device control means

Claims (1)

被写体の輝度情報並びに所定のプログラム線図または設定値に基づく第1の露出因子によって背景光量を決定する背景光量決定手段と、
撮像時に前記背景光量と加算されて主被写体を適正露光とするためのフラッシュ光量を決定する第1のフラッシュ光量決定手段と、
前記背景光量決定手段によって決定された第1の露出因子を所定量減算して第2の露出因子を決定し、該第2の露出因子に基づく背景光量と加算されて主被写体を適正露光とするための第2のフラッシュ光量を決定する第2のフラッシュ光量決定手段と、
前記背景光量決定手段によって決定された第1の露出因子を所定量加算して第3の露出因子を決定し、該第3の露出因子に基づく背景光量と加算されて主被写体を適正露光とするための第3のフラッシュ光量を決定する第3のフラッシュ光量決定手段と、
前記背景光量決定手段によって決定された第1の露出因子と前記第1のフラッシュ光量決定手段によって決定されたフラッシュ光量に基づいて第1の撮像を行い、前記第2の露出因子と前記第2のフラッシュ光量に基づいて第2の撮像を行い、前記第3の露出因子と前記第3のフラッシュ光量に基づいて第3の撮像を行うように制御する制御手段と、
を備えたことを特徴とする撮像装置。
Background light amount determining means for determining a background light amount based on luminance information of a subject and a first exposure factor based on a predetermined program diagram or a set value;
First flash light amount determination means for determining a flash light amount for adding a main subject to an appropriate exposure by adding the background light amount at the time of imaging;
The second exposure factor is determined by subtracting a predetermined amount from the first exposure factor determined by the background light amount determination means, and is added to the background light amount based on the second exposure factor to make the main subject proper exposure. Flash light amount determining means for determining a second flash light amount for
The third exposure factor is determined by adding a predetermined amount to the first exposure factor determined by the background light amount determining means, and is added to the background light amount based on the third exposure factor to make the main subject proper exposure. Flash light amount determining means for determining a third flash light amount for
The first imaging is performed based on the first exposure factor determined by the background light intensity determination unit and the flash light intensity determined by the first flash light intensity determination unit, and the second exposure factor and the second exposure factor are determined. Control means for performing a second imaging based on a flash light amount, and controlling to perform a third imaging based on the third exposure factor and the third flash light amount;
An imaging device comprising:
JP2002343840A 2002-11-27 2002-11-27 Imaging apparatus and control method thereof Expired - Fee Related JP4323781B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002343840A JP4323781B2 (en) 2002-11-27 2002-11-27 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002343840A JP4323781B2 (en) 2002-11-27 2002-11-27 Imaging apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2004179963A true JP2004179963A (en) 2004-06-24
JP2004179963A5 JP2004179963A5 (en) 2006-01-19
JP4323781B2 JP4323781B2 (en) 2009-09-02

Family

ID=32705528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002343840A Expired - Fee Related JP4323781B2 (en) 2002-11-27 2002-11-27 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP4323781B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007019946A (en) * 2005-07-08 2007-01-25 Pentax Corp Image pickup device
JP2008177903A (en) * 2007-01-19 2008-07-31 Nikon Corp Imaging device
JP2010509613A (en) * 2006-11-08 2010-03-25 ソニー エリクソン モバイル コミュニケーションズ, エービー Camera and method in camera
JP2015222372A (en) * 2014-05-23 2015-12-10 キヤノン株式会社 Image-capturing device, control method thereof, lighting device, and program
JP2016071042A (en) * 2014-09-29 2016-05-09 キヤノン株式会社 Light emitting control device, control method therefor, control program, and imaging apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007019946A (en) * 2005-07-08 2007-01-25 Pentax Corp Image pickup device
JP2010509613A (en) * 2006-11-08 2010-03-25 ソニー エリクソン モバイル コミュニケーションズ, エービー Camera and method in camera
JP4891408B2 (en) * 2006-11-08 2012-03-07 ソニー エリクソン モバイル コミュニケーションズ, エービー Camera and method in camera
JP2008177903A (en) * 2007-01-19 2008-07-31 Nikon Corp Imaging device
JP2015222372A (en) * 2014-05-23 2015-12-10 キヤノン株式会社 Image-capturing device, control method thereof, lighting device, and program
JP2016071042A (en) * 2014-09-29 2016-05-09 キヤノン株式会社 Light emitting control device, control method therefor, control program, and imaging apparatus

Also Published As

Publication number Publication date
JP4323781B2 (en) 2009-09-02

Similar Documents

Publication Publication Date Title
JPH04257830A (en) Flash light dimming controller for camera
US20060029382A1 (en) Digital still camera, imaging method, and exposure decision method
JP2008191335A (en) Imaging apparatus and imaging system
JP4323781B2 (en) Imaging apparatus and control method thereof
JP2000275512A (en) Camera
JP4763941B2 (en) Display control device, control method, program, and recording medium
JP2012155149A (en) Imaging apparatus and method for controlling the same
JP6742733B2 (en) Imaging device, control method thereof, and control program
JP5163498B2 (en) Camera system
JPH06121222A (en) Camera
JP2007006097A (en) Camera
JP4593900B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP4422442B2 (en) Digital camera
JP4479021B2 (en) Digital still camera
JP2002090814A (en) Camera
JP2006017854A (en) Imaging apparatus and flash light emitting device
JP4313868B2 (en) Auto focus camera
JP4780877B2 (en) Electronic camera and control method
CN109387992B (en) Image pickup apparatus capable of sufficiently ensuring light emission accuracy and control method thereof
JP2005006217A (en) Digital single lens reflex camera
JP2005130213A (en) Electronic camera
JP3461220B2 (en) Automatic control camera
JP2003087648A (en) Imaging apparatus, photographed image generating method, program, and storage medium
JPH06125485A (en) Finder for camera
JP2005024857A (en) Digital single lens reflex camera

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051128

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080430

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090602

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090605

R150 Certificate of patent or registration of utility model

Ref document number: 4323781

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130612

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees