JP2005024971A - Photographing system, illumination system and illumination condition setting method - Google Patents

Photographing system, illumination system and illumination condition setting method Download PDF

Info

Publication number
JP2005024971A
JP2005024971A JP2003191232A JP2003191232A JP2005024971A JP 2005024971 A JP2005024971 A JP 2005024971A JP 2003191232 A JP2003191232 A JP 2003191232A JP 2003191232 A JP2003191232 A JP 2003191232A JP 2005024971 A JP2005024971 A JP 2005024971A
Authority
JP
Japan
Prior art keywords
illumination
subject
unit
lighting
imaging system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003191232A
Other languages
Japanese (ja)
Inventor
Isao Sugaya
功 菅谷
Norio Yamamura
則夫 山村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2003191232A priority Critical patent/JP2005024971A/en
Publication of JP2005024971A publication Critical patent/JP2005024971A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a photographing system capable of obtaining desirable illumination states for various kinds of subjects in order to perform photographing, and to provide an illumination condition setting method. <P>SOLUTION: The photographing system is equipped with an illumination part which illuminates at least a part of a subject and whose illumination condition can be varied, a video acquiring part which acquires the video information of the subject, an illumination decision part which analyzes the illumination state for the subject based on the video information acquired by the video acquiring part and decides the propriety of the illumination state, and an illumination equipment control part which controls an illumination condition based on the result of decision by the illumination decision part. Thus, an inconvenience that the illumination state for the subject suitable for photography is not always produced corresponding to various kinds of subjects by the photographing system in the conventional manner is eliminated. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、対象物を照明する照明機器と映像取得装置とから構成された撮影システム、照明システム、及び、複数の照明機器から構成された照明システムの照明条件設定方法に関する。
【0002】
【従来の技術】
従来より、被写体を照明手段で照明して撮影する技術として以下のような技術が提案されている。この技術では、予め、種々の被写体を最適な照明条件の下で撮影したサンプル画像を各サンプル画像に対応する照明条件と一緒に記憶しておく。そして、実際の被写体の撮影時に、サンプル画像を読み出して表示装置に表示し、撮影意図に最適なサンプル画像を選び出し、この最適なサンプル画像に対応する照明条件を呼び出し、この呼び出した照明条件で照明手段を制御して実際の被写体を照明して、カメラで撮影する。(例えば特許文献1)
【0003】
【特許文献1】
特開平11−24138号公報
【0004】
【発明が解決しようとする課題】
しかしながら、従来の技術は、過去に撮影した限られた数のサンプル画像から選ばれた特定のサンプル画像に対応した照明状態を単に再現するものであるので、実際の撮影に於ける千種万様の被写体に対して常には充分に最適化された照明状態を作り出すことが出来なかった。
【0005】
又、従来の技術では撮影者自身が、最適なサンプル画像の選択を、正確には説明出来ないあいまいな選択基準のもとに行うために、選択される最適なサンプル画像自体が撮影者に依存し、結局は写真の出来不出来は、サンプル画像を選ぶ各撮影者の選択眼や技量に依存するところが非常に大きかった。
【0006】
更に、従来の技術では、被写体が静止物ではなく、時々刻々と移動する動体の場合のように、照明機器と被写体との位置関係が変化している場合には従来の手法では実時間性が無いために全く対応が出来なかった。
【0007】
又、従来の技術では例えば画面内の被写体のうち、ある特定の部分(例えば主要被写体)のみの輝度を増加させて背景から浮き立たせるなどの作画的意図や、演出的な効果を狙った写真を撮影することは難しかった。
【0008】
更に、従来の技術では照明機器により照明された被写体面の輝度範囲をカメラの撮像素子のダイナミックレンジにバランス良く分布させることが出来なかった。
【0009】
即ち、カメラの撮像素子のダイナミックレンジは限られており、通常カメラは、被写体の着目点(例えば人物等の主要被写体)に対して、標準反射率18%を基準に露光量(露光時間、絞り)を決めて撮影するので、明るすぎる被写体部分では映像信号が飽和して白つぶれが生じ、逆に暗すぎる被写体部分では映像信号に黒つぶれが生じる。ここで、白つぶれが生じる場合には、例えば、照明光が被写体表面で鏡面反射或いは照り返した反射光でハレーションが生じる場合、黒つぶれが生じる場合には、例えば被写体に照明光の死角の影が生じる場合が含まれる。被写体全面の輝度範囲をカメラの撮像素子のダイナミックレンジ範囲にバランスよく収める為には、カメラマンが、被写体の各面からの輝度を人為的に測定しながら、照明機器の向きや明るさを変えて、被写体の各面からの輝度範囲をカメラの撮像素子のダイナミックレンジに応じたラティチュードに調節し、この作業は面倒で高い熟練を要した。
【0010】
本発明は、以上の問題の何れか一つを解決し、多種多様な被写体に対して撮影の為に好ましい照明状態を得ることができる撮影システム及び照明条件設定方法を提供することにある。
【0011】
又、本発明は照明対象物に対して好ましい印象の照明をすることができる照明システムを提供することである。
【0012】
【課題を解決する為の手段】
以上の課題を解決する為に、本発明の第1の態様は、被写体の少なくとも一部の照明を行なう、照明条件可変の照明部と、前記被写体の映像情報を取得する映像取得部と、前記映像取得部により取得された映像情報を基に前記被写体の照明状態を分析し、前記照明状態の適否を判定する照明判定部と、前記照明判定部による判定結果に基づいて前記照明条件を制御する照明機器制御部とを具える撮影システムである。
【0013】
本発明の第2の態様は、第1の態様の撮影システムであって、前記照明条件が、前記照明部の照明光の強度、前記被写体に対する前記照明部の照明角度、前記照明部の前記被写体に対する位置、及び照明光の分光特性から選ばれた一つ以上であるものである。
【0014】
本発明の第3の態様は、第1又は第2の態様の撮影システムであって、前記照明判定部が前記映像情報の画面分割型測光に基づいて前記照明状態の適正さを判定するものである。
【0015】
本発明の第4の態様は、第1〜第3の態様の何れかの撮影システムであって、前記被写体中に主要被写体を識別する主要被写体識別部と、前記主要被写体と前記照明部と前記映像取得部との相対位置関係を把握する相対位置把握部と、前記相対位置関係に基づいて前記照明部を自走させる照明部自走手段とを具えるものである。
【0016】
本発明の第5の態様は、第1〜第3の態様の何れかの撮影システムであって、前記被写体中に主要被写体を識別する主要被写体識別部と、前記主要被写体と前記照明部と前記映像取得部との相対位置関係を把握する相対位置把握部と、前記相対位置関係に基づいて前記照明部を自走させる照明部自走手段と、前記相対位置関係に基づいて前記映像取得部を自走させる映像取得部自走手段とを具えるものである。
【0017】
本発明の第6の態様は、照明対象物を照明する、複数の照明機器を具えた照明システムの照明条件を決定する為の照明条件設定方法であって、最初に各照明機器単独の個別照明特性を、残りの照明機器を全て消灯し、前記各照明機器の照明条件を変化させながら前記照明対象物を照明すると共に前記照明対象物の輝度を測定し、前記各照明機器の照明条件と前記照明対象物の輝度との関係を求めることによって取得するものである。
【0018】
本発明の第7の態様は、第6の態様の照明条件設定方法であって、更にその前に、前記複数の照明機器を全て消灯し、前記照明対象物の輝度を測定することにより、制御対象外の光源の影響を事前評価するものである。
【0019】
本発明の第8の態様は、照明対象物の照明を行なう照明条件可変の照明部と、前記照明対象物の映像情報を取得する映像取得部と、前記映像取得部により取得された映像情報を基に前記照明対象物の照明状態を分析し、前記照明状態の適否を判定をする照明判定部と、前記照明判定部による判定結果に基づいて前記照明条件を制御する照明機器制御部とを具える照明システムである。
【0020】
【発明の実施の形態】
第1〜第4実施形態の撮影システム、第5実施形態の照明条件設定方法の説明をする前に、これらの実施形態で用いる4種類の照明機器2を図13(a)〜(d)を参照して説明する。
【0021】
図13(a)の照明機器2は、外部からの制御信号によって照明光の放射強度を変化出来るように構成されているタイプ、図13(b)は、外部からの制御信号によって、照明光の放射強度の他に照明方向も合わせて可変出来るように構成されているタイプ、図13(c)は、更に外部からの制御信号によって更にレール上のような限定的範囲内で移動して照明光を発する位置を可変できるように構成されているタイプである。図13(d)は、自律的に移動(自走)し、照明光を発する位置と照明方向を可変して照明するタイプであり、第3、第4実施形態の照明システムで用いられる。これら図13(a)、(b)、(c)、(d)各種の照明機器2は、撮影用途によって適宜選択される。例えば、肖像写真専門の写真スタジオのように限定的要素が強い場所で使う場合には図13(a)のタイプで充分に用が足り、高価な変角機構、移動機構が不要である。又、例えば、人物などの主要被写体の照明用に図13(b)や図13(c)のタイプを、近背景用には図13(d)のタイプをと、様々なタイプの照明機器を取り混ぜて用いても良い。
【0022】
[第1実施形態]
図1は本実施形態の撮影システム10を示す図であり、図2は本実施形態の撮影システムの動作のフローチャートを示す。図3は撮影システム10が撮影現場で被写体を照明しつつ撮影する様子の一例を示す図であり、図4は図3の撮影現場で取得された被写体画面の照明状態等を説明する図である。本実施形態の撮影システム10は、被写体がほぼ静止している場合に好ましく用いられ、映像取得部1は固定位置にあり、照明機器2は図13(c)のタイプであり、照明方向が可変であり、照明位置は限定的範囲でのみ可変である。
【0023】
図1に示すように、本実施形態の撮影システム10は、映像取得部1と照明機器2と照明分析判定部3と照明機器制御部4とから構成される。
【0024】
図1に於いて、本実施形態の撮影システム10には図13(c)のタイプの照明機器2が、被写体5の周囲の所定位置に設置され、被写体の各部分を分担して照明する。
【0025】
照明機器2が被写体を照明する様子の一例を図3に示す。図3に於いて、照明機器2−▲1▼、2−▲2▼、2−▲3▼、2−▲4▼、2−▲5▼は、各々、主要被写体と中景の右方からの照明、主要被写体と中景の左方からの照明、前景の照明、右側の近背景の照明、そして左側の近背景の照明を適宜分担して行なう。以上のように、各照明機器2は被写体5を場所的に分担して照明し、被写体5全体として照明されない場所が出来るだけ少なく、且つ重複して照明される場所が出来るだけ少なくなるように照明方向、照明位置が予め調節されている。但し、被写体5の中でも例えば遠景の景色のように自然光で照明される部分は照明機器2の照明の対象外である。このようにして各照明機器2−▲1▼、2−▲2▼、2−▲3▼、2−▲4▼、2−▲5▼で照明された領域と被写体画面との関係の一例を図4に示す。図4に示される被写体画面は5個所の領域(即ち、照明A〜Eの領域)と1個所の遠景領域に分けられている。
【0026】
本実施形態の撮影システム10の映像取得部1は二次元に拡がる複数の光検出器から構成され、被写体光6を受光し、被写体5の映像信号7を照明分析判定部3に出力する。映像取得部1としては最終的に画像を撮影するCCDやCMOSタイプの撮像素子を用いることが出来る。映像取得部1として、処理速度や任意位置の読み出し性を重視して最終的に画像を撮影する撮像素子とは別に照明状態の検出専用に画素数(即ち光検出器の数のこと)が少ない(例えば最大でも画素数数千程度の)CMOSタイプ等の撮像素子を設ければより好ましい撮影システムを構成することができる。照明状態検出専用の撮像素子を映像取得部1として設ける場合には、最終的な画像撮影用の撮像素子の被写体視野と照明状態検出専用の撮像素子の被写体視野とを正確に一致させる。
【0027】
本実施形態の撮影システム10の照明分析判定部3は、映像取得部1から入力した被写体5の映像信号7の映像画面(以下被写体画面と呼ぶ)を複数(例えば9×7=63個)の分割画面に分割する。
【0028】
図4に被写体画面と上記分割画面と照明機器2−▲1▼、2−▲2▼、2−▲3▼、2−▲4▼、2−▲5▼の各々が照明する各領域との関係の一例を示す。前記分割画面信号は、必要に応じて境界が重なるように分割されていても良い。この測光技術としては、例えば、ニコン社のニコンF5(商品名)カメラの3D−RGBマルチパターン測光技術を用いることができる。
【0029】
本実施形態の撮影システム10の照明分析判定部3は、前記分割画面信号を基に被写体5に対する照明状態の良否を判定する。この判定基準としては以下に示すものがある。第1は、分割画面内の輝度が所定範囲内にあるかどうかである。全ての分割画面内の輝度が所定範囲1内にあれば良、分割画面内の輝度が一部分でも所定範囲1外となっている分割画面が1個でもあれば、照明状態は否と判定する。第2は各分割画面の輝度が被写体画面全体としてバランスが取れているかどうかの判定である。この判定の為に各分割画面の平均輝度を計算し、この平均輝度が所定範囲2に入っているかどうかの判定をする。ここで、所定範囲2は所定範囲1よりも狭く、所定範囲1に含まれる。各分割画面の平均輝度が所定範囲2内にあれば良、所定範囲2外であれば否とする。
【0030】
ここで所定範囲1、所定範囲2は、最終撮影用のカメラの撮像素子のダイナミックレンジが対応できる被写体輝度のラティチュード範囲、及び、予め撮影者が設定する作画構想(例えば映像効果を期待して主要被写体の輝度を背景よりも高める等して、意図的にコントラストを強調する)で決まる。
【0031】
本実施形態の撮影システム10の照明分析判定部3は、以上説明したような方法で照明状態を分析し、判定した上で判定信号8を照明機器制御部4へ出力する。この判定信号8には分割画面毎(即ち分割画面の座標位置毎)の照明状態の良否信号、そして照明状態が否である場合には所定範囲1の中心値又は所定範囲2の中心値からの差分信号が含まれる。以下、本明細書中で所定範囲1の中心値、所定範囲2の中心値のことを単に基準値と呼ぶ。
【0032】
本実施形態の撮影システム10の照明機器制御部4は、分割画面の座標位置と照明機器2の番号(図1に▲1▼▲2▼▲3▼▲4▼▲5▼で示す)との対応関係を示したテーブルを記憶しており、このテーブルを参照して、入力された判定信号8から、照明状態が否であり、照明条件を変更する必要がある対象照明機器2の番号を特定する。照明機器制御部4は、上記差分信号から照明条件の変更量を演算する。この変更量は照明調節対象の照明機器4の照明光の放射強度の相対変更量に相当する量であり、この変更量と事前に取得されている照明機器2の入力制御信号と照明光強度との関係に基づいて適正な輝度に変更する為の制御信号9の大きさを演算し、変更された制御信号9を対象の照明機器2に出力する。
【0033】
例えば、図4に示す座標位置(6,4)のハレーション部Xに対しては主要被写体用照明Aの照明機器(2−▲1▼)の照明光量を減少させて高輝度を解消するような制御信号を出力する。又、座標位置(8,2)のハレーション部Yに対しては近背景用照明Dの照明機器(2−▲4▼)の照明光量を減少させて高輝度を解消するような制御信号を出力する。又、座標位置(3,7)のシャドー部に対しては前景用照明Cの照明機器(2−▲3▼)の照明光量を増大させて低輝度を解消するような制御信号を出力する。
【0034】
この制御信号9に応じて対象照明機器2の照明光の放射強度が変化し、対象分割画面の輝度が適正化する。
【0035】
尚、本実施形態の撮影システムでは、何れかの分割画面の輝度に不具合があり修正の必要がある場合に、第1優先で照明光の放射強度を変化させる。このようにすることにより、照射領域の範囲を変化させないで対象分割画面の輝度を修正することができる。
【0036】
第1優先で行なう照明光の放射強度の調節のみでは対象分割画面の輝度を有効的に修正できない場合に初めて第2優先で対象照明機器2の照明方向を変化させる。例えば輝度補正の対象の分割画面が対象照明機器2の照射領域の端の方にある場合に、輝度補正対象の分割画面が対象照明機器2の照明領域の中程に位置するように照明方向を変化させれば、照明光の放射強度の調節により対象分割画面の輝度を有効的に修正することができる。又、対象分割画面に鏡面反射部分が生じている場合、対象照明機器2の照明方向を変化させることにより鏡面反射部分が被写体画面に存在しないように修正することができる。
【0037】
照明方向を調節しても有効に輝度調節が出来ないときに初めて、照明機器2の照明位置の変更を行なう。この照明位置の変更は、例えば、被写体5面上に照明の影が生じている場合、この影の解消に有効である。
【0038】
以上のような被写体画面上の不適正な輝度部分の調節を出来るだけきめ細かく行なう為には、分割画面の数は、計算処理速度が許す範囲で出来るだけ多く、且つ出来るだけ細かいことが好ましい。
【0039】
以下図2に示すフローチャート及び図1を参照して本実施形態の撮影システム10の動作を説明する。
【0040】
ステップS1で照明機器2の初期照明条件を設定して被写体5を照明すると共に動作をステップS2へ移行する。この初期照明条件では、前に説明したように、各照明機器2が被写体5を場所的に分担して照明し、被写体全体として照明されない場所が出来るだけ少なく、且つ又重複して照明される場所が出来るだけ少なくなるように照明方向、照明位置が調節される。照明機器2の照明光の放射強度は、特に限定はないが、例えば、照明機器2の照明光の最大放射強度の約半分に初期設定される。
【0041】
ステップS2で映像取得部1は被写体光6を受けて映像信号を取得し、この被写体画面から分けられた複数の分割画面の映像信号7を照明分析判定部3に出力すると共に動作をステップS3へ移行する。
【0042】
ステップS3で照明分析判定部3は映像信号7を基に、各分割画面の輝度の範囲や、各分割画面の平均輝度を分析すると共に動作をステップS4へ移行する。
【0043】
ステップS4で照明判定を行なう。即ち、各分割領域の輝度を予め決められて記憶されている所定範囲1、所定範囲2と比較することによって適正(良)か不適正(否)かを判定し、適正であればステップS5に、否であればステップS6に動作を移行する。
【0044】
ステップS5で焦点合わせ等の他の撮影準備が完了すれば、撮影記録が行なわれる。
【0045】
ステップS6で輝度が不適正な分割領域を特定し、前記不適正な輝度値の基準値からの差分信号を求めて、ステップS7に動作を移行する。
【0046】
ステップS7で分割画面の座標位置と照明機器2の番号との関係を記したテーブルを参照して輝度が不適性な分割画面に対応する照明機器2を特定し、動作をステップS8へ移行する。
【0047】
ステップS8でステップS6で求めた差分信号と、予め取得され記憶されている照明機器2の入力制御信号の大きさと対応分割画面の輝度信号との関係のテーブルとにより新しい照明条件に対する新しい制御信号を求め、ステップS9に動作を移行する。
【0048】
例えば、図4に示す座標位置(6,4)のハレーション部Xに対しては主要被写体用照明Aの照明機器(2−▲1▼)の照明光量を減少させて高輝度を解消するような制御信号を生成する。又、座標位置(8,2)のハレーション部Yに対しては近背景用照明Dの照明機器(2−▲4▼)の照明光量を減少させて高輝度を解消するような制御信号を生成する。又、座標位置(3,7)のシャドー部に対しては前景用照明Cの照明機器(2−▲3▼)の照明光の強度を増大させて低輝度を解消するような制御信号を生成する。
【0049】
ステップS9で新しい制御信号を照明機器に出力して、新しい照明条件で被写体5を照明し、ステップS2に動作を移行する。
【0050】
以上の動作はステップS4で照明判定が良になるまで繰り返され、照明判定が良になれば、他の条件が整い次第最終撮影が行なわれる。
【0051】
図5は、このようにして撮影された写真を示す図であり、主要被写体として花と花瓶が背景と一緒に撮影されている。
【0052】
尚、被写体の種類によっては図2のフローを繰り返しても照明状態が思うようには改善されず照明判定が良にならないことがある。このときには警報を発して照明光の放射強度以外に、照明光の放射方向、照明光の放射位置の変更を行なう。この変更は自動的に行なっても、又は取得画像をモニター画面で観察することによって人為的に行なっても良い。又、必要に応じて所定範囲1や所定範囲2を拡げたり、基準値を大きくすることによって照明判定基準自体を緩くしても良い。
【0053】
本実施形態の撮影システムでは被写体画面から分割された分割画面の輝度を分析することによって、照明状態の良否を判定し、分割画面単位で照明状態が良になるよう照明調節するので、被写体全体の輝度をラティチュード範囲に収め、好ましい写真を撮ることができる。
【0054】
[第2実施形態]
本実施形態の撮影システムは図7に示される。本実施形態の撮影システムは、被写体が静止している場合に好ましく適用される点では第1実施形態のものと共通であるが、本実施形態の撮影システムは被写体5から主要被写体を識別して、主要被写体に対して優先的に照明調節を行なう点で第1実施形態の撮影システムとは異なる。
【0055】
以下図7を参照して本実施形態の撮影システムを説明する。本実施形態の撮影システム10は、映像取得部1と照明機器2と照明分析判定部3と照明機器制御部4と主要被写体識別部13とから構成される。
【0056】
本実施形態の撮影システム10の照明機器2は第1実施形態の撮影システム10の照明機器2と同様であるので、説明を省略する。
【0057】
又、本実施形態の撮影システム10の映像取得部1は、第1実施形態の撮影システム10の映像取得部1と同様にして被写体5の映像信号7を取得し、照明認識判定部3と主要被写体識別部13とにこの映像信号7を出力する。
【0058】
本実施形態の撮影システム10の主要被写体識別部13は、映像信号7を分析し、被写体画面から主要被写体を識別する。主要被写体が人物であることが事前に分かっている場合には、この人物の識別の為に、例えば、馬場功淳、等著、「HeadFinder:単眼視動画像を用いた複数人追跡、画像センシングシンポジウム2001,363頁−368頁,(2001年)」の技術を用いることができる。この技術は、「通常のシーンに於いて動く円は人物の頭である」という仮説の基に、前記画像から動く円を見つけ、その見つけた円を被撮影者の頭部と見做すことによって人物識別する方法である。この他にも肌色識別、輪郭検出、前画面との差分検出、又は赤外線による温度測定、等の技術を用いて被写体画面中に人間の部分を見つけ、この人間の部分を主要被写体として、残りの部分を背景として区分けする。次に、被写体画面上で主要被写体が位置する分割画面を特定する。主要被写体が全体的に位置する分割画面のみならず部分的に位置する分割画面も、主要被写体分割画面として区分けされる。被写体画面内の残りの分割画面は背景分割画面として区分けされる。この主要被写体の分割画面と背景の分割画面との区分情報を記した区分け信号14は照明分析判定部3へ出力される。
【0059】
本実施形態の撮影システム10の照明分析判定部3は映像取得部1から受け取った映像信号7と区分け信号14とに基づいて被写体5に対する照明の良否を判定する。この判定方法は基本的に第1実施形態に於ける判定方法と同様であるが、本実施形態の撮影システムは、主要被写体分割画面と背景分割画面との間で所定範囲1、所定範囲2の大きさが異なることに特徴がある。即ち主要被写体分割画面に対しては、背景分割画面に対してよりも狭い許容範囲が設定され、背景の分割画面に対してよりも主要被写体の分割画面に対して優先的に輝度調節(即ち照明調節)を行なうことを可能とする。
【0060】
本実施形態の撮影システム10の照明分析判定部3は、以上の説明したような方法で照明状態を分析し、判定した上で、判定信号8を照明機器制御部4へ出力する。この判定信号8には分割画面毎(即ち分割画面の座標位置毎)の照明状態の良否信号、照明状態が否である場合には基準値からの差分信号が含まれる。
【0061】
本実施形態の撮影システム10の照明機器制御部4は、第1実施形態の撮影システムの照明機器制御部と同様であるので、説明を省略する。
【0062】
以下図8に示すフローチャート及び図7を参照して本実施形態の撮影システム10の動作を説明する。
【0063】
先ずステップS1で初期照明条件を設定して被写体5を照明とすると共に動作をステップS2へ移行する。この初期照明条件の設定方法に関しては第1実施形態と同様である。
【0064】
ステップS2で映像取得部1は被写体光を受光して映像信号を取得し、この映像信号7を照明分析判定部3と主要被写体識別部13に出力し、動作をステップS3へ移行する。
【0065】
ステップS3で被写体画面から人物(即ち主要被写体)を識別し、動作をステップS4へ移行する。
【0066】
ステップS4で主要被写体と背景とを切り分けて、即ち、主要被写体と背景とを区別して分割画面の映像信号を取得し、動作をステップS5へ移行する。
【0067】
ステップS5で背景の分割画面の輝度を分析し、ステップS6に動作を移行する。
【0068】
ステップS6で背景の分割画面の輝度が基準値内であるかどうかを判定し、否ならばステップS7に動作を移行する。
【0069】
ステップS7で輝度が不適正な分割画面を特定し、動作をステップS8へ移行する。
【0070】
ステップS8で、分割画面の座標値と照明機器の番号との関係を示したテーブルを参照して、輝度が不適正な分割画面に対応する照明機器を特定し、動作をステップS9へ移行する。
【0071】
ステップS9で輝度が不適正な分割画面の輝度の基準値からの差分信号と、予め取得され記憶されている照明機器の入力制御信号の大きさと対応分割画面の輝度信号との関係のテーブルとにより新しい制御信号を演算し、動作をステップS10へ移行する。
【0072】
ステップS10で新しい制御信号に対応する照明条件で照明機器を照明し動作をステップS5へ移行する。
【0073】
ステップS11で主要被写体の分割画面の輝度を分析し、動作をステップS12へ移行する。
【0074】
ステップS12で主要被写体の分割画面の輝度が基準値内であるかどうかを判定し、良ならばステップS13に、否ならばステップS7に動作を移行する。
【0075】
尚、応答性を速くする為に、背景の照明判定を行なわないで、ステップS4から直接ステップS11の動作に移行して、主要被写体のみの照明調節をするようにしても良い。
【0076】
本実施形態の撮影システムでは人物等の主要被写体を優先的に照明調節するので、特に人物等の主要被写体の輝度をラティチュード範囲に収め、好ましい写真を撮ることができる。
【0077】
[第3実施形態]
本実施形態の撮影システムは図9に示される。本実施形態の撮影システムは、動く主要被写体を対象とするものであり、映像取得部1は固定位置にセットされており、フレームに入ってきた動く人物等の主要被写体に対して自走装置付きの照明機器2が動き回って最適位置に移動して主要被写体を照明するものである。本実施形態の撮影システムは被写体5から主要被写体を切り出す点で第2実施形態の撮影システムと同じであり、本実施形態の撮影システムでは主要被写体に対してのみ照明調節を行なう。
【0078】
以下図9を参照して本実施形態の撮影システムを説明する。本実施形態の撮影システム10は、映像取得部1と主要被写体識別部13と照明分析判定部3と相対位置把握部16と主制御部18と照明機器制御部4と自走装置付き照明機器2とから構成される。
【0079】
本実施形態の撮影システム10の照明機器2は外部から入力する制御信号9に基づいて照明光の放射強度を変化させる点では第1実施形態の撮影システム10の照明機器2と同様であるが、本実施形態では、更に、照明機器2が主要被写体を照明する為に適した位置にレールのような限定的ではなく、制御信号9に基づいて自由に移動できる移動手段を持つ。
【0080】
本実施形態の撮影システム10の映像取得部1は被写体5の映像信号7を照明分析判定部3と主要被写体識別部13に出力する。
【0081】
本実施形態の撮影システム10の主要被写体識別部13が主要被写体を識別する方法は第2実施形態で既に説明した方法と同様であるので、説明を省略する。本実施形態の主要被写体識別部13は、区分け信号14を照明分析判定部3に出力する点で第2実施形態の撮影システムと同様であるが、その他に、主要被写体識別信号15を主制御部18に出力する。この主要被写体識別信号は主要被写体を被写体画面上で識別する信号である。
【0082】
本実施形態の撮影システム10の照明分析判定部3は映像取得部1から受け取った映像信号7と区分け信号14とに基づいて主要被写体に対する照明の良否を判定する。この判定基準については第1実施形態で既に説明した方法と同様であるので、説明を省略する。
【0083】
本実施形態の撮影システム10の照明分析判定部3は、以上のようにして主要被写体の照明状態を分析し、判定した上、判定信号8を主制御部18へ出力する。この判定信号8には主要被写体の分割画面毎(即ち分割画面の座標位置毎)の照明状態の良否信号、照明状態が否である場合には基準値からの各差分信号が含まれる。
【0084】
本実施形態の撮影システムの相対位置把握部16は、主要被写体、映像取得部1、照明機器2相互間の相対位置を検知し、この相対位置信号16を主制御部18に出力する。この相対位置を把握する為に、画像を処理して被写体中の主要被写体の識別を行なうステレオカメラ、GPSやジャイロセンサ、等を用いることができる。GPS又はジャイロセンサによる相対位置把握は、例えば、主要被写体、映像取得部1、照明機器2の各々が有するGPS又はジャイロセンサにより取得された各位置信号相互間の差を取ることによって行なうことが出来る。尚、被写体の映像信号を分析する画像処理によって人物等の主要被写体の映像取得部1に対する相対位置を基に把握する手段が別にある場合には、人物等の主要被写体は位置取得手段を持つ必要がない。
【0085】
本実施形態の撮影システム10の主制御部18には予め、照明機器2の入力制御信号と照明光強度との関係データ、及び、照明光の放射強度の角度特性データ、物体面上の照度計算式データが事前に取得されて記憶されている。これらデータと、相対位置信号17と主要被写体識別信号15と判定信号8とを基に、照明機器2の移動計画及び照明計画を立て、移動計画及び照明計画信号19を照明機器制御部4に出力する。
【0086】
本実施形態の撮影システム10の照明機器制御部4は、移動計画及び照明計画信号19に基づいて制御信号9を生成し、照明機器2に出力する。
【0087】
以下図10に示すフローチャート及び図9を参照して本実施形態の撮影システム10の動作を説明する。
【0088】
先ずステップS1で照明機器と映像取得部と被写体(主要被写体がフレーム内にいない場合には背景)との初期配置を行い、初期照明条件を設定して被写体5を照明とすると共に動作をステップS2へ移行する。この初期照明条件の設定方法に関しては第1実施形態と同様である。
【0089】
ステップS2で映像取得部により映像信号の取得を行なう。
【0090】
ステップS3で、フレーム内に人物等の主要被写体が移動して入って来て既に存在する場合には、被写体画面から主要被写体を識別し、動作をステップS4へ移行する。
【0091】
ステップS4で主要被写体と背景とを切り分けて、即ち、主要被写体と背景とを区別して分割画面の映像信号を取得し、動作をステップS5へ移行する。
【0092】
ステップS5で主要被写体の分割画面の輝度が基準値内であるかどうかを判定し、否ならば、輝度が不適正な分割画面を特定し、動作をステップS7へ移行する。
【0093】
ステップS7で、この時点での主要被写体、映像取得部、照明機器の相対位置を把握し、動作をステップS8へ移行する。主要被写体は被写体画面に対しても位置特定されている。
【0094】
ステップS8で、主制御部により照明機器の移動計画、照明計画を行なう。
【0095】
ステップS9で、照明機器制御部により照明機器を主要被写体の照明の為に好ましい位置に移動し、照明機器を適度な放射光強度で照明するための制御を行なう。
【0096】
本実施形態の撮影システムは、映像取得部に移動する主要被写体が飛び込んで来たときに、照明機器が好ましい位置に移動し、適度な放射光強度で照明するので、主要被写体の輝度をラティチュード範囲に調節して好ましい写真を撮ることができる。
【0097】
[第4実施形態]
本実施形態の撮影システムは図11に示される。本実施形態の撮影システムは、動く主要被写体を対象とするものである点では第3実施形態の撮影システムと同様であるが、映像取得部1と照明機器2の両方が人物等の主要被写体に対して最適位置に移動する為の自走手段を共に具える点で第3実施形態の撮影システムとは異なる。
【0098】
以下図11を参照して本実施形態の撮影システム10を説明する。本実施形態の撮影システム10は、映像取得部1と主要被写体識別部13と照明分析判定部3と相対位置把握部16と主制御部18と照明機器制御部4と映像取得部制御部24と自走手段付き照明機器2と自走手段付きの映像取得部1とから構成される。
【0099】
本実施形態の撮影システム10の照明機器2は照明機器制御信号9を受けて自走し、照明する点で第3実施形態の撮影システム10の照明機器2と同様であるので、説明を省略する。
【0100】
本実施形態の撮影システム10の映像取得部1の映像取得の行い方自体は第1実施形態の撮影システムの映像取得部と同様であるので、説明を省略する。本実施形態の撮影システム10の映像取得部1は、主要被写体の映像取得部1に対する相対位置に基づいて生成された映像取得部制御信号22に基づいて移動し、且つカメラの向きを変える移動手段を具える。又、本実施形態の撮影システム10の映像取得部1は、映像信号7を照明分析判定部3と主要被写体識別部13に出力する。
【0101】
本実施形態の撮影システム10の主要被写体識別部13が主要被写体を識別する方法は第3実施形態で既に説明した方法と同様であるので、説明を省略する。
【0102】
本実施形態の撮影システム10の照明分析判定部3は映像取得部1から入力した映像信号7と主要被写体識別部13から入力した区分け信号14とに基づいて主要被写体に対する照明の良否を判定し、判定信号8を主制御部に出力する。この判定方法については第1実施形態で既に説明した方法と同様であるので、説明を省略する。
【0103】
本実施形態の撮影システム10の相対位置把握部16は、主要被写体、映像取得部1、照明機器2相互間の相対位置を検知し、この相対位置信号17を主制御部18に出力する。この相対位置の把握方法は第3実施形態で既に説明した方法と同様であるので、ここでは説明を省略する。
【0104】
本実施形態の撮影システム10の主制御部18には予め、照明機器2の入力制御信号と照明光強度との関係データ、及び、照明光の放射強度の角度特性データ、物体面上の照度計算式データが事前に取得されて記憶されており、これらのデータと、相対位置信号17と主要被写体識別信号15と判定信号8とを基に、照明機器2の移動計画及び照明計画を立て、移動計画及び照明計画信号19を照明機器制御部4に出力する。
【0105】
又、主制御部18は、主要被写体識別信号15を基に主要被写体の映像取得部1に対する相対位置を取得する。相対位置の内の方向は被写体画面上の人物(主要被写体)の位置、距離はその人物の頭の大きさによって検知する。この、主要被写体の映像取得部1に対する相対位置は、勿論、相対位置信号17に基づいて取得しても良い。主制御部18は、この相対位置と予め決められた撮影構図とを基に、映像取得部移動計画信号21を映像取得部制御部24に出力する。
【0106】
本実施形態の撮影システム10の照明機器制御部4は、移動計画及び照明計画信号19を基に照明機器制御信号9を生成し、照明機器2に出力する。
【0107】
本実施形態の撮影システムの映像取得部制御部24は、映像取得部移動計画信号21を基に映像取得部制御信号22を生成し、映像取得部1に出力する。
【0108】
照明機器制御信号9及び映像取得部制御信号22の各被制御対象への伝達は無線によっても有線によっても何れでも良い。
【0109】
尚、本実施形態の撮影システムの映像取得部1は自走手段を有するが、他の、主要被写体識別部13、照明分析判定部3、主制御部18、照明機器制御部4、映像取得部制御部24の何れか一つ以上が映像取得部1と一緒に自走しても良い。
【0110】
以下図12に示すフローチャートにより本実施形態の撮影システム10の動作を説明する。
【0111】
先ず、ステップS1で映像取得部は初期の所定位置(任意位置でも良い)に位置し、照明機器は初期の所定位置(任意位置でも良い)から初期の照明(放射強度零でも良い)を行ない、動作をステップS2へ移行する。
【0112】
ステップS2で映像取得部は映像信号を取得し、動作をステップS3へ移行する。
【0113】
ステップS3で映像信号の被写体画面上の人物等の主要被写体が識別され、その位置が特定され、動作をステップS4へ移行する。
【0114】
ステップS4で被写体画面から主要被写体の分割画面と背景の分割画面とを切り分けて分割画面信号を取得し、動作をステップS5へ移行する。
【0115】
ステップS5で、予め決められた撮影構図になるようにステップS3で特定された主要被写体の位置に基づいて映像取得部を移動し、動作をステップS4へ移行する。
【0116】
ステップS6で主要被写体の照明状態の良否判定を行い、良ならばステップS10へ、否ならばステップS7へ動作を移行する。
【0117】
ステップS7で主要被写体、映像取得部、照明機器相互間の相対位置関係を把握し、動作をステップS8へ移行する。
【0118】
ステップS8で相対位置関係を基に好ましい照明を行なう為の照明計画を立て、動作をステップS9へ移行する。
【0119】
ステップS9で照明機器は好ましい位置に移動し、好ましい放射強度で照明を行ない、動作をステップS2へ移行する。
【0120】
ステップS10で必要に応じて撮影記録する。
【0121】
本実施形態の撮影システム10の概念をより良く掴む為に最も簡単な例を図14を参照して説明する。
【0122】
この例は照明機器2が2台、左側からと右側から主要被写体23を照明する例である。尚、25は映像取得部1の被写体範囲(撮像範囲)である。この状態で撮影システムは照明状態の調節をし、主要被写体が×で示される位置に向けて左上方に移動すると、それに連れて映像取得部1と照明機器2は平行移動的に、相対位置関係を保持したまま移動して照明する。
【0123】
本実施形態の撮影システムは、主要被写体、映像取得部、照明機器相互間の相対位置関係を把握し、映像取得部、照明部が共に移動可能であるので、動く主要被写体に対しても、最適位置及び最適角度で追尾しながら、主要被写体の輝度範囲をラティチュード内に調節して好ましい写真を撮り続けることができる。
【0124】
[第5実施形態]
本実施形態は、図1、図7、図9、図11で示されるような撮影システムで、被写体5を照明する複数の照明機器2の照明条件を決定する為の照明条件設定方法に関するものである。一般に、ハレーション等の高輝度の原因は、照明機器2から放射された照明光による反射ではなく、被写体自体の発光であったり、制御対象外の光源(太陽光や室内灯)が原因の場合もある。その対策としてはまず最適化制御を行う前に、照明機器群を全て消灯して制御可能な照明機器以外の光源が作り出す照明効果のみを認識・分析しておくことで、照明上の不具合がどちらに起因するものであるかを始めに把握しておく。照明機器群の制御で照明の不具合が回避可能である場合には、各照明機器の照明特性、照明領域を把握し、第1〜第4実施形態で説明したような方法で照明の最適化を行い、そうでない場合は警告を発して撮影環境自体を見直す旨を撮影者に伝える。
【0125】
図6に示したフローチャートを参照して本実施形態の照明条件設定方法を説明する。
【0126】
先ずステップS1で照明機器2−▲1▼、照明機器2−▲2▼、照明機器2−▲3▼、照明機器2−▲4▼、照明機器2−▲5▼を全て消灯し、ステップS2に動作を移行する。
【0127】
ステップS2で被写体の映像の分割画面の映像信号(輝度)を取得し、動作をステップS3へ移行する。この段階で照明機器の制御のみでは輝度の不具合を解消できないと判断すれば、撮影者に警報を発する。
【0128】
ステップS3で分割画面の輝度信号を記憶装置に記憶し、動作をステップS4へ移行する。
【0129】
このようにして、制御対象外の太陽光や自発光物体の影響を事前取得して記憶して置く。
【0130】
ステップS4で対象照明機器を1台点灯し、動作をステップS5へ移行する。対象外の照明機器は消灯したままである。
【0131】
ステップS5で対象照明機器への制御信号を増加させながら、対象照明機器の分担する照明領域に対応した分割画面の輝度信号を取得し、前記制御信号の大きさと、対象照明機器の分担する照明領域に対応する全分割画面の各輝度信号の大きさとの関係を取得し、動作をステップS6へ移行する。尚、分割画面の輝度信号が複数の光検出器からの信号であるとき、データ数の関係で通常はこれらの信号の平均値を分割画面の輝度信号とする。
【0132】
ステップS6で、ステップS5で取得した分割画面の輝度信号から、ステップS3で記憶した制御対象外の光源による輝度信号を差し引き、対象照明機器への制御信号の大きさと、対象照明機器の分担する照明領域に対応した分割画面の正味の輝度信号の大きさとの関係を取得し、動作をステップS7へ移行する。
【0133】
ステップS7で、ステップS6で取得した照明機器に対する制御信号と分割画面の正味の輝度信号との関係を制御信号−輝度信号テーブルとして記憶する。
【0134】
この関係は、図2に示される第1実施形態の撮影システムの動作のフローチャートに於けるステップS8で呼び出され、差分信号と、現制御信号と、呼び出された制御信号−輝度信号関係のテーブルとから新しい制御信号の大きさを決定する。
【0135】
本実施形態の照明条件設定方法によれば、制御機器1台毎にそれの制御信号の大きさと対応分割画面の輝度との関係を取得しているので、照明機器への制御信号の大きさを的確に決めることができ、その結果、被写体の輝度範囲を所定範囲1又は所定範囲2内に精度良く収めることが出来る。
【0136】
又、本実施形態の照明条件設定方法によれば、ステップS1、S2、S3で示される制御対象外の光源の影響を事前に評価すれば、被写体の輝度範囲をより的確に、より高精度に所定範囲1又は所定範囲2内に収めることが出来る。
【0137】
以上第2〜第4の実施形態の撮影システムによると、主要被写体が識別され、「主要被写体」と「背景(=遠景、中景又は他の対象物、近景)」などの相対的位置関係が明らかとなっているため、例えば主要被写体だけに照明光を強くして背景との輝度のコントラストを強調する等、様々な演出効果も得ることが出来る。
【0138】
以上、第1〜第5実施形態では、カメラ等の撮影機器で撮影する場合の説明を行った。しかしながら、第1〜第5実施形態の技術は、映像取得部が取得した映像を観賞用に記録したり、出力することのみならず、例えばコンサートや舞台など、観客がその場でライトアップされたステージ自体を観賞する場合にも有効であることは容易に理解できるだろう。(例えば、舞台演劇の各シーンのシチュエーションに同期させて背景の照明を落とすと共に、話者を浮き立たせるべく特定の俳優(主要被写体)に照明光を照射して追尾するなど、極めて多様な応用が可能である。)
例えば、以上の第1〜第5実施形態で説明した技術は、以下のようにして劇場で舞台を照明する照明システムに適用できる。このとき、映像取得部は観客席の代表位置に設けられ、写真を撮影することではなく、主要被写体ではなく人物等の対象物の位置を特定することのみを目的として用いられる。そして映像取得部は、レンズを舞台に向け、舞台全体の映像を画面上に収めるように調整される。そして、舞台上の移動する人物(主要被写体)を上記の画像処理技術にて識別して位置を特定し、この特定された位置を基に、観客から見て好ましい印象の照明効果を与える照明の位置、方向、及び照明光の強度を求める。このように求められたな位置、方向、及び照明光強度を確保するように制御信号を自走手段付きの照明機器に送って制御すれば、自動的に照明可能な照明システムが構築できる。このような照明システムによれば、対象物を分割画面毎に測光した結果に基づいて、照明調節するので、対象物の輝度範囲を観客に好ましい印象の輝度範囲に調節することができる。
【0139】
その他にも、本実施形態の説明から容易に類推できる変形例は全て本発明の権利範囲に含まれる。
【0140】
【発明の効果】
本発明の撮影システムによれば、被写体から取得した映像情報を基に被写体の照明調節をするので、多種多様な被写体に対して各部の輝度範囲を映像取得部のダイナミックレンジに対応した適切なラティチュード範囲に調節して好ましい写真を撮ることができる。
【0141】
又、本発明の照明システムによれば、対象物から取得した映像情報に基づいて照明調節するので、対象物の各部の輝度範囲を観客に好ましい印象の輝度範囲に調節することができる。
【0142】
又、本発明の照明条件設定方法によれば、対象物の輝度範囲を的確に所定範囲に収めることができる。
【図面の簡単な説明】
【図1】第1実施形態の撮影システムのブロック図である。
【図2】第1実施形態の撮影システムの動作のフローチャートを示す。
【図3】第1〜第2実施形態の撮影システムで撮影する様子を示す。
【図4】被写体画面、分割画面、各照明機器の分担領域、照明対象外領域、及び照明不具合を説明する図である。
【図5】照明不具合が解消された被写体画面又は撮影された写真を示す。
【図6】第5実施形態の照明方法決定方法を説明するフローチャートを示す。
【図7】第2実施形態の撮影システムのブロック図である。
【図8】第2実施形態の撮影システムの動作のフローチャートを示す。
【図9】第3実施形態の撮影システムのブロック図である。
【図10】第3実施形態の撮影システムの動作のフローチャートを示す。
【図11】第4実施形態の撮影システムのブロック図である。
【図12】第4実施形態の撮影システムの動作のフローチャートを示す。
【図13】4種類の照明機器を示す。
【図14】第4実施形態の撮影システムの単純化された具体例を示す。
【符号の説明】
1 映像取得部
2 照明機器
3 照明分析判定部
4 照明機器制御部
5 被写体
6 被写体光
7 映像信号
8 判定信号
9 照明機器制御信号
10 撮影システム
11 照明方向可変機構
12 照明位置可変機構
13 主要被写体識別部
14 区分け信号
15 主要被写体識別信号
16 相対位置把握部
17 相対位置信号
18 主制御部
19 移動計画及び照明計画信号
21 映像取得部移動計画信号
22 映像取得部制御信号
23 主要被写体
24 映像取得部制御部
25 被写体範囲
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a photographing system, a lighting system, and a lighting condition setting method for a lighting system that includes a plurality of lighting devices.
[0002]
[Prior art]
Conventionally, the following techniques have been proposed as techniques for photographing a subject with illumination means. In this technique, sample images obtained by photographing various subjects under optimal illumination conditions are stored together with illumination conditions corresponding to the respective sample images. When photographing an actual subject, a sample image is read out and displayed on a display device, a sample image most suitable for the purpose of photographing is selected, an illumination condition corresponding to the optimum sample image is called, and illumination is performed under the called illumination condition. The means is controlled to illuminate an actual subject and photographed with a camera. (For example, Patent Document 1)
[0003]
[Patent Document 1]
Japanese Patent Laid-Open No. 11-24138
[0004]
[Problems to be solved by the invention]
However, the conventional technology simply reproduces the illumination state corresponding to a specific sample image selected from a limited number of sample images taken in the past. It was not always possible to create a fully optimized lighting condition for the subject.
[0005]
In addition, in the conventional technique, the photographer himself selects an optimal sample image based on an ambiguous selection criterion that cannot be accurately explained. Therefore, the optimum sample image to be selected depends on the photographer. In the end, however, the success or failure of the photo was very dependent on the eye and skill of each photographer selecting the sample image.
[0006]
Furthermore, in the conventional technique, when the positional relationship between the lighting device and the subject is changing, as in the case where the subject is not a stationary object but a moving object that moves from moment to moment, the conventional method has real-time characteristics. Because there was not, we could not cope at all.
[0007]
In addition, in the conventional technology, for example, a picture intended for a graphic effect such as increasing the brightness of only a specific part (for example, a main subject) of a subject on the screen and making it stand out from the background, or a staging effect. It was difficult to shoot.
[0008]
Furthermore, the conventional technique cannot distribute the luminance range of the subject surface illuminated by the illumination device in a balanced manner in the dynamic range of the camera image sensor.
[0009]
That is, the dynamic range of the image sensor of the camera is limited, and the normal camera has an exposure amount (exposure time, aperture) with respect to a target point of interest (for example, a main subject such as a person) based on a standard reflectance of 18%. ) Is determined, the video signal is saturated in a portion of the subject that is too bright, and the image signal is obscured. Conversely, in the portion of the subject that is too dark, the image signal is obscured. Here, when white-out occurs, for example, when halation occurs due to specular reflection or reflection of illumination light on the subject surface, or when black-out occurs, for example, the shadow of the blind spot of the illumination light appears on the subject. It includes cases that occur. In order to keep the brightness range of the entire subject within the dynamic range of the camera's image sensor in a well-balanced manner, the cameraman artificially measures the brightness from each surface of the subject while changing the orientation and brightness of the lighting device. The brightness range from each surface of the subject was adjusted to a latitude corresponding to the dynamic range of the camera image sensor, and this work was cumbersome and required high skill.
[0010]
An object of the present invention is to provide an imaging system and an illumination condition setting method that can solve any one of the above-described problems and obtain a preferable illumination state for photographing various subjects.
[0011]
Another object of the present invention is to provide an illumination system capable of illuminating a lighting object with a favorable impression.
[0012]
[Means for solving the problems]
In order to solve the above-described problems, a first aspect of the present invention includes a lighting condition variable lighting unit that illuminates at least a part of a subject, a video acquisition unit that acquires video information of the subject, Based on the video information acquired by the video acquisition unit, the lighting state of the subject is analyzed, and an illumination determination unit that determines suitability of the lighting state, and the lighting condition is controlled based on a determination result by the illumination determination unit An imaging system including a lighting device control unit.
[0013]
A second aspect of the present invention is the imaging system according to the first aspect, wherein the illumination condition includes an intensity of illumination light of the illumination unit, an illumination angle of the illumination unit with respect to the subject, and the subject of the illumination unit And at least one selected from the spectral characteristics of the illumination light.
[0014]
A third aspect of the present invention is the imaging system according to the first or second aspect, wherein the illumination determination unit determines the appropriateness of the illumination state based on screen division type photometry of the video information. is there.
[0015]
A fourth aspect of the present invention is the imaging system according to any one of the first to third aspects, wherein a main subject identifying unit that identifies a main subject in the subject, the main subject, the illumination unit, and the A relative position grasping unit for grasping a relative positional relationship with the video acquisition unit and an illumination unit self-running means for causing the illumination unit to self-run based on the relative positional relationship are provided.
[0016]
A fifth aspect of the present invention is the imaging system according to any one of the first to third aspects, wherein a main subject identifying unit that identifies a main subject in the subject, the main subject, the illumination unit, and the A relative position grasping unit for grasping a relative positional relationship with the image obtaining unit; an illuminating unit self-running means for causing the illumination unit to self-run based on the relative positional relationship; and the image obtaining unit based on the relative positional relationship. It is provided with a self-propelling means for a video acquisition unit that is self-propelled.
[0017]
A sixth aspect of the present invention is an illumination condition setting method for determining an illumination condition of an illumination system including a plurality of illumination devices that illuminates an illumination object, and first individually illuminates each illumination device individually. The characteristic is to turn off all the remaining lighting devices, illuminate the lighting object while changing the lighting conditions of each lighting device and measure the brightness of the lighting object, the lighting conditions of each lighting device and the This is obtained by obtaining the relationship with the luminance of the illumination object.
[0018]
According to a seventh aspect of the present invention, there is provided the illumination condition setting method according to the sixth aspect, wherein the control is further performed by turning off all of the plurality of illumination devices and measuring the luminance of the illumination object. This is to evaluate in advance the influence of non-target light sources.
[0019]
According to an eighth aspect of the present invention, there is provided an illumination unit having a variable illumination condition for illuminating an illumination target, a video acquisition unit for acquiring video information of the illumination target, and video information acquired by the video acquisition unit. An illumination determination unit that analyzes an illumination state of the illumination object based on the determination result and determines whether the illumination state is appropriate; and an illumination device control unit that controls the illumination condition based on a determination result by the illumination determination unit. Lighting system.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
Before explaining the imaging systems of the first to fourth embodiments and the illumination condition setting method of the fifth embodiment, the four types of illumination devices 2 used in these embodiments are shown in FIGS. The description will be given with reference.
[0021]
The illumination device 2 in FIG. 13A is of a type that can change the radiation intensity of illumination light by an external control signal, and FIG. 13B shows the illumination light by the control signal from the outside. FIG. 13C is a type that can change the illumination direction in addition to the radiation intensity. FIG. 13C further moves the illumination light within a limited range such as on the rail by an external control signal. This is a type configured to be able to vary the position where the light is emitted. FIG. 13D is a type that moves autonomously (self-propelled), illuminates by changing the position and direction of illumination light, and is used in the illumination systems of the third and fourth embodiments. These various illumination devices 2 shown in FIGS. 13A, 13B, 13C, and 13D are appropriately selected depending on the photographing application. For example, when used in a place where the limited elements are strong, such as a photo studio specialized in portrait photography, the type shown in FIG. 13A is sufficient, and an expensive angle changing mechanism and moving mechanism are unnecessary. In addition, for example, various types of illumination devices such as the type shown in FIGS. 13B and 13C are used for illumination of a main subject such as a person, and the type shown in FIG. 13D is used for a near background. You may mix and use.
[0022]
[First Embodiment]
FIG. 1 is a diagram illustrating an imaging system 10 according to the present embodiment, and FIG. 2 is a flowchart illustrating the operation of the imaging system according to the present embodiment. FIG. 3 is a diagram illustrating an example of a state in which the photographing system 10 shoots a subject while illuminating the subject, and FIG. 4 is a diagram illustrating an illumination state of a subject screen acquired at the photographing site in FIG. . The imaging system 10 of the present embodiment is preferably used when the subject is almost stationary, the image acquisition unit 1 is in a fixed position, the illumination device 2 is of the type shown in FIG. 13C, and the illumination direction is variable. And the illumination position is variable only within a limited range.
[0023]
As shown in FIG. 1, the imaging system 10 of the present embodiment includes a video acquisition unit 1, a lighting device 2, a lighting analysis determination unit 3, and a lighting device control unit 4.
[0024]
In FIG. 1, the illumination system 2 of the type shown in FIG. 13C is installed at a predetermined position around the subject 5 in the photographing system 10 of the present embodiment, and illuminates each part of the subject.
[0025]
An example of how the illumination device 2 illuminates the subject is shown in FIG. In FIG. 3, lighting devices 2- (1), 2- (2), 2- (3), 2- (4), and 2- (5) are respectively viewed from the right side of the main subject and the middle scene. Illumination from the left of the main subject and the middle scene, foreground illumination, right near background illumination, and left near background illumination are appropriately shared. As described above, each lighting device 2 divides and illuminates the subject 5 in a location, and illuminates so that there are as few places where the subject 5 as a whole is not illuminated as much as possible, and as few as possible where there are overlapping illuminations. Direction and lighting position are adjusted in advance. However, a portion of the subject 5 that is illuminated with natural light, such as a distant view, is not subject to illumination by the lighting device 2. Thus, an example of the relationship between the area illuminated by each of the lighting devices 2- (1), 2- (2), 2- (3), 2- (4), 2- (5) and the subject screen As shown in FIG. The subject screen shown in FIG. 4 is divided into five areas (that is, areas of illuminations A to E) and one distant view area.
[0026]
The image acquisition unit 1 of the imaging system 10 of the present embodiment includes a plurality of photodetectors that extend in two dimensions, receives the subject light 6, and outputs the video signal 7 of the subject 5 to the illumination analysis determination unit 3. As the video acquisition unit 1, a CCD or CMOS type imaging device that finally captures an image can be used. The video acquisition unit 1 has a small number of pixels (that is, the number of photodetectors) dedicated to the detection of the illumination state, apart from an image pickup device that finally captures an image with an emphasis on processing speed and readability at an arbitrary position. If a CMOS type imaging device (for example, having a maximum of several thousand pixels at the maximum) is provided, a more preferable photographing system can be configured. In the case where an imaging device dedicated for illumination state detection is provided as the video acquisition unit 1, the subject field of the final imaging device for image capturing is exactly matched with the subject field of the imaging device dedicated for illumination state detection.
[0027]
The illumination analysis determination unit 3 of the imaging system 10 of the present embodiment has a plurality of (for example, 9 × 7 = 63) video screens (hereinafter referred to as subject screens) of the video signal 7 of the subject 5 input from the video acquisition unit 1. Divide into split screens.
[0028]
FIG. 4 shows the subject screen, the above-described divided screen, and the lighting devices 2- (1), 2- (2), 2- (3), 2- (4), and 2- (5). An example of the relationship is shown. The divided screen signal may be divided so that the boundaries overlap as necessary. As this photometry technique, for example, the Nikon F5 (trade name) camera 3D-RGB multi-pattern photometry technique of Nikon Corporation can be used.
[0029]
The illumination analysis determination unit 3 of the imaging system 10 according to the present embodiment determines whether the illumination state of the subject 5 is good based on the divided screen signal. Examples of the determination criteria include the following. The first is whether or not the luminance in the divided screen is within a predetermined range. It is determined that the luminance in all the divided screens is within the predetermined range 1, and the lighting state is determined to be negative if there is at least one divided screen in which the luminance in the divided screen is partly outside the predetermined range 1. The second is a determination as to whether or not the luminance of each divided screen is balanced as a whole subject screen. For this determination, the average luminance of each divided screen is calculated, and it is determined whether or not this average luminance is within the predetermined range 2. Here, the predetermined range 2 is narrower than the predetermined range 1 and is included in the predetermined range 1. If the average luminance of each divided screen is within the predetermined range 2, it is acceptable.
[0030]
Here, the predetermined range 1 and the predetermined range 2 are a subject luminance latitude range that can correspond to the dynamic range of the image sensor of the final shooting camera, and a drawing concept set by the photographer in advance (for example, in anticipation of the video effect). The contrast is intentionally enhanced by, for example, increasing the luminance of the subject over the background).
[0031]
The illumination analysis determination unit 3 of the imaging system 10 according to the present embodiment analyzes the illumination state by the method as described above, and determines and outputs a determination signal 8 to the illumination device control unit 4. The determination signal 8 is a signal indicating whether the illumination state is good for each divided screen (that is, for each coordinate position of the divided screen), and when the illumination state is negative, from the center value of the predetermined range 1 or the center value of the predetermined range 2. A differential signal is included. Hereinafter, the center value of the predetermined range 1 and the center value of the predetermined range 2 are simply referred to as reference values in the present specification.
[0032]
The lighting device control unit 4 of the photographing system 10 of the present embodiment compares the coordinate position of the divided screen and the number of the lighting device 2 (indicated by (1), (2), (3), (4), and (5) in FIG. 1). A table indicating the correspondence relationship is stored, and the number of the target lighting device 2 that indicates that the lighting state is negative and the lighting condition needs to be changed is identified from the input determination signal 8 with reference to this table. To do. The illumination device control unit 4 calculates the change amount of the illumination condition from the difference signal. This change amount is an amount corresponding to the relative change amount of the radiation intensity of the illumination light of the illumination device 4 subject to illumination adjustment. The change amount, the input control signal of the illumination device 2 acquired in advance, the illumination light intensity, Based on the relationship, the magnitude of the control signal 9 for changing to an appropriate luminance is calculated, and the changed control signal 9 is output to the target lighting device 2.
[0033]
For example, with respect to the halation part X at the coordinate position (6, 4) shown in FIG. 4, the amount of illumination light of the illumination device (2- (1)) for the main subject illumination A is reduced to eliminate high luminance. Output a control signal. For the halation part Y at the coordinate position (8, 2), a control signal for eliminating the high luminance by reducing the illumination light quantity of the illumination device (2- (4)) for the near background illumination D is output. To do. Further, a control signal is output to the shadow portion at the coordinate position (3, 7) so as to eliminate the low luminance by increasing the illumination light quantity of the illumination device (2- (3)) of the foreground illumination C.
[0034]
The radiation intensity of the illumination light of the target illumination device 2 changes according to the control signal 9, and the brightness of the target divided screen is optimized.
[0035]
In the imaging system of the present embodiment, the radiation intensity of illumination light is changed with the first priority when there is a problem with the brightness of any of the divided screens and correction is required. By doing in this way, the brightness | luminance of an object division | segmentation screen can be corrected, without changing the range of an irradiation area | region.
[0036]
The illumination direction of the target illumination device 2 is changed with the second priority only when the luminance of the target divided screen cannot be effectively corrected only by adjusting the radiation intensity of the illumination light performed with the first priority. For example, when the divided screen to be subjected to luminance correction is located at the end of the irradiation area of the target illumination device 2, the illumination direction is set so that the divided screen to be subjected to luminance correction is located in the middle of the illumination area of the target illumination device 2. If it changes, the brightness | luminance of object division | segmentation screen can be corrected effectively by adjustment of the radiation intensity of illumination light. Further, when a specular reflection portion is generated on the target divided screen, the specular reflection portion can be corrected so as not to exist on the subject screen by changing the illumination direction of the target lighting device 2.
[0037]
The illumination position of the illumination device 2 is changed only when the brightness cannot be adjusted effectively even if the illumination direction is adjusted. This change of the illumination position is effective in eliminating the shadow when, for example, a shadow of illumination is generated on the subject 5 surface.
[0038]
In order to adjust the improper luminance portion on the subject screen as finely as possible, it is preferable that the number of divided screens is as large as possible within the range allowed by the calculation processing speed and as fine as possible.
[0039]
The operation of the imaging system 10 of this embodiment will be described below with reference to the flowchart shown in FIG. 2 and FIG.
[0040]
In step S1, the initial illumination conditions of the illumination device 2 are set to illuminate the subject 5, and the operation proceeds to step S2. In this initial lighting condition, as described above, each lighting device 2 divides and illuminates the subject 5 in a place, and the number of places where the entire subject is not illuminated is as small as possible, and the places are illuminated in duplicate. The illumination direction and the illumination position are adjusted so as to reduce as much as possible. The radiant intensity of the illumination light from the illuminating device 2 is not particularly limited.
[0041]
In step S2, the video acquisition unit 1 receives the subject light 6 to acquire a video signal, outputs video signals 7 of a plurality of divided screens divided from the subject screen to the illumination analysis determination unit 3, and the operation proceeds to step S3. Transition.
[0042]
In step S3, the illumination analysis determination unit 3 analyzes the luminance range of each divided screen and the average luminance of each divided screen based on the video signal 7, and moves the operation to step S4.
[0043]
In step S4, illumination determination is performed. That is, it is determined whether the brightness of each divided area is appropriate (good) or inappropriate (not) by comparing with the predetermined range 1 and the predetermined range 2 stored in advance. If not, the operation proceeds to step S6.
[0044]
If other photographing preparations such as focusing are completed in step S5, photographing recording is performed.
[0045]
In step S6, a divided area having an inappropriate luminance is specified, a difference signal from the reference value of the inappropriate luminance value is obtained, and the operation proceeds to step S7.
[0046]
In step S7, the lighting device 2 corresponding to the divided screen with inappropriate luminance is identified with reference to the table describing the relationship between the coordinate position of the divided screen and the number of the lighting device 2, and the operation proceeds to step S8.
[0047]
In step S8, a new control signal for a new lighting condition is obtained based on the difference signal obtained in step S6 and a table of the relationship between the magnitude of the input control signal of the lighting device 2 and the luminance signal of the corresponding divided screen that are acquired and stored in advance. The operation is shifted to step S9.
[0048]
For example, with respect to the halation part X at the coordinate position (6, 4) shown in FIG. 4, the amount of illumination light of the illumination device (2- (1)) for the main subject illumination A is reduced to eliminate high luminance. Generate a control signal. For the halation part Y at the coordinate position (8, 2), a control signal is generated so as to eliminate the high luminance by reducing the illumination light amount of the illumination device (2- (4)) for the near background illumination D. To do. In addition, for the shadow portion at the coordinate position (3, 7), a control signal is generated so as to eliminate the low luminance by increasing the intensity of the illumination light of the illumination device (2- (3)) of the foreground illumination C. To do.
[0049]
In step S9, a new control signal is output to the illumination device, the subject 5 is illuminated under the new illumination conditions, and the operation proceeds to step S2.
[0050]
The above operation is repeated until the illumination determination becomes good in step S4. If the illumination determination becomes good, the final shooting is performed as soon as other conditions are satisfied.
[0051]
FIG. 5 is a diagram showing a photograph taken in this way, in which a flower and a vase are taken together with the background as main subjects.
[0052]
Depending on the type of subject, even if the flow of FIG. 2 is repeated, the illumination state may not be improved as expected, and the illumination determination may not be good. At this time, an alarm is issued to change the radiation direction of illumination light and the radiation position of illumination light in addition to the radiation intensity of illumination light. This change may be made automatically or artificially by observing the acquired image on a monitor screen. Further, the illumination determination criterion itself may be relaxed by expanding the predetermined range 1 or the predetermined range 2 or increasing the reference value as necessary.
[0053]
In the imaging system of the present embodiment, the luminance of the divided screen divided from the subject screen is analyzed to determine whether the lighting state is good or not, and the lighting adjustment is performed so that the lighting state is good in units of divided screens. The brightness can be kept within the latitude range, and a preferable photograph can be taken.
[0054]
[Second Embodiment]
The imaging system of this embodiment is shown in FIG. The imaging system of this embodiment is the same as that of the first embodiment in that it is preferably applied when the subject is stationary, but the imaging system of this embodiment identifies the main subject from the subject 5. This is different from the photographing system of the first embodiment in that the illumination adjustment is performed with priority on the main subject.
[0055]
Hereinafter, the imaging system of this embodiment will be described with reference to FIG. The imaging system 10 of this embodiment includes a video acquisition unit 1, an illumination device 2, an illumination analysis determination unit 3, an illumination device control unit 4, and a main subject identification unit 13.
[0056]
Since the illumination device 2 of the imaging system 10 of the present embodiment is the same as the illumination device 2 of the imaging system 10 of the first embodiment, the description thereof is omitted.
[0057]
In addition, the video acquisition unit 1 of the imaging system 10 of the present embodiment acquires the video signal 7 of the subject 5 in the same manner as the video acquisition unit 1 of the imaging system 10 of the first embodiment. This video signal 7 is output to the subject identification unit 13.
[0058]
The main subject identifying unit 13 of the photographing system 10 of the present embodiment analyzes the video signal 7 and identifies the main subject from the subject screen. When it is known in advance that the main subject is a person, for identification of this person, for example, Isao Baba, et al., “HeadFinder: Multi-person tracking using monocular moving image, image sensing” Symposium 2001, pages 363 to 368, (2001) "can be used. This technique is based on the hypothesis that “the moving circle in a normal scene is the head of a person”, and finds a moving circle from the image and considers the found circle as the head of the subject. It is a method of identifying a person by. In addition to this, a human part is found in the subject screen using techniques such as skin color identification, contour detection, difference detection with the previous screen, or temperature measurement using infrared rays, and this human part is used as the main subject, and the rest Divide the part as background. Next, the divided screen on which the main subject is located on the subject screen is specified. Not only the divided screen in which the main subject is entirely positioned but also the divided screen in which the main subject is partially positioned is classified as the main subject divided screen. The remaining divided screens in the subject screen are classified as background divided screens. A segmentation signal 14 describing segmentation information between the main subject division screen and the background division screen is output to the illumination analysis determination unit 3.
[0059]
The illumination analysis determination unit 3 of the imaging system 10 according to the present embodiment determines the quality of the illumination on the subject 5 based on the video signal 7 and the segmentation signal 14 received from the video acquisition unit 1. This determination method is basically the same as the determination method in the first embodiment, but the imaging system of this embodiment has a predetermined range 1 and a predetermined range 2 between the main subject division screen and the background division screen. Characterized by different sizes. That is, a narrower allowable range is set for the main subject division screen than for the background division screen, and brightness adjustment (ie, illumination) is given priority to the main subject division screen over the background division screen. Adjustment).
[0060]
The illumination analysis determination unit 3 of the imaging system 10 of the present embodiment analyzes and determines the illumination state by the method as described above, and then outputs a determination signal 8 to the illumination device control unit 4. The determination signal 8 includes a quality signal for the illumination state for each divided screen (that is, for each coordinate position of the divided screen), and a difference signal from the reference value when the illumination state is negative.
[0061]
Since the illumination device control unit 4 of the imaging system 10 of the present embodiment is the same as the illumination device control unit of the imaging system of the first embodiment, the description thereof is omitted.
[0062]
The operation of the imaging system 10 of this embodiment will be described below with reference to the flowchart shown in FIG. 8 and FIG.
[0063]
First, in step S1, an initial illumination condition is set to illuminate the subject 5, and the operation proceeds to step S2. The initial illumination condition setting method is the same as that in the first embodiment.
[0064]
In step S2, the video acquisition unit 1 receives subject light to acquire a video signal, outputs this video signal 7 to the illumination analysis determination unit 3 and the main subject identification unit 13, and the operation proceeds to step S3.
[0065]
In step S3, a person (namely, main subject) is identified from the subject screen, and the operation proceeds to step S4.
[0066]
In step S4, the main subject and the background are separated, that is, the main subject and the background are distinguished to acquire the video signal of the divided screen, and the operation proceeds to step S5.
[0067]
In step S5, the luminance of the background divided screen is analyzed, and the operation proceeds to step S6.
[0068]
In step S6, it is determined whether the luminance of the background divided screen is within the reference value. If not, the operation proceeds to step S7.
[0069]
In step S7, a divided screen with an inappropriate luminance is specified, and the operation proceeds to step S8.
[0070]
In step S8, referring to the table showing the relationship between the coordinate value of the divided screen and the number of the lighting device, the lighting device corresponding to the divided screen having an inappropriate luminance is specified, and the operation proceeds to step S9.
[0071]
In step S9, based on the difference signal from the reference value of the luminance of the divided screen whose luminance is inappropriate and the table of the relationship between the magnitude of the input control signal of the lighting device and the luminance signal of the corresponding divided screen that are acquired and stored in advance. A new control signal is calculated, and the operation proceeds to step S10.
[0072]
In step S10, the illumination device is illuminated under the illumination condition corresponding to the new control signal, and the operation proceeds to step S5.
[0073]
In step S11, the luminance of the divided screen of the main subject is analyzed, and the operation proceeds to step S12.
[0074]
In step S12, it is determined whether or not the luminance of the divided screen of the main subject is within the reference value. If good, the operation proceeds to step S13, and if not, the operation proceeds to step S7.
[0075]
In order to speed up the response, it is also possible to shift from step S4 directly to the operation of step S11 without performing background illumination determination, and adjust the illumination of only the main subject.
[0076]
In the photographing system of the present embodiment, the main subject such as a person is preferentially adjusted in lighting, so that the brightness of the main subject such as a person can be kept within the latitude range and a preferable photograph can be taken.
[0077]
[Third Embodiment]
The imaging system of this embodiment is shown in FIG. The imaging system of the present embodiment is intended for a moving main subject, and the video acquisition unit 1 is set at a fixed position, and has a self-propelled device for the main subject such as a moving person entering the frame. The illumination device 2 moves around and moves to the optimum position to illuminate the main subject. The photographing system of the present embodiment is the same as the photographing system of the second embodiment in that the main subject is cut out from the subject 5, and the photographing system of the present embodiment performs illumination adjustment only for the main subject.
[0078]
Hereinafter, the imaging system of this embodiment will be described with reference to FIG. The imaging system 10 of this embodiment includes a video acquisition unit 1, a main subject identification unit 13, an illumination analysis determination unit 3, a relative position determination unit 16, a main control unit 18, a lighting device control unit 4, and a lighting device 2 with a self-propelled device. It consists of.
[0079]
The illumination device 2 of the imaging system 10 of the present embodiment is the same as the illumination device 2 of the imaging system 10 of the first embodiment in that the radiation intensity of illumination light is changed based on a control signal 9 input from the outside. In the present embodiment, the illumination device 2 further includes a moving unit that can freely move based on the control signal 9 without being limited to a rail position at a position suitable for illuminating the main subject.
[0080]
The video acquisition unit 1 of the imaging system 10 of the present embodiment outputs the video signal 7 of the subject 5 to the illumination analysis determination unit 3 and the main subject identification unit 13.
[0081]
Since the method of identifying the main subject by the main subject identifying unit 13 of the imaging system 10 of the present embodiment is the same as the method already described in the second embodiment, description thereof is omitted. The main subject identification unit 13 of the present embodiment is the same as the imaging system of the second embodiment in that it outputs the segmentation signal 14 to the illumination analysis determination unit 3, but in addition, the main subject identification signal 15 is sent to the main control unit. 18 is output. The main subject identification signal is a signal for identifying the main subject on the subject screen.
[0082]
The illumination analysis determination unit 3 of the imaging system 10 according to the present embodiment determines the quality of illumination on the main subject based on the video signal 7 and the segmentation signal 14 received from the video acquisition unit 1. Since this criterion is the same as the method already described in the first embodiment, the description is omitted.
[0083]
The illumination analysis determination unit 3 of the imaging system 10 of the present embodiment analyzes and determines the illumination state of the main subject as described above, and outputs the determination signal 8 to the main control unit 18. This determination signal 8 includes a quality signal for the illumination state for each divided screen of the main subject (ie, for each coordinate position of the divided screen), and each difference signal from the reference value if the illumination state is negative.
[0084]
The relative position grasping unit 16 of the photographing system according to the present embodiment detects the relative positions among the main subject, the video acquisition unit 1, and the illumination device 2, and outputs the relative position signal 16 to the main control unit 18. In order to grasp the relative position, a stereo camera, a GPS, a gyro sensor, or the like that processes an image and identifies a main subject in the subject can be used. The relative position grasping by the GPS or gyro sensor can be performed, for example, by taking the difference between the position signals acquired by the GPS or the gyro sensor included in each of the main subject, the video acquisition unit 1 and the illumination device 2. . If there is another means for grasping based on the relative position of the main subject such as a person with respect to the video acquisition unit 1 by image processing for analyzing the video signal of the subject, the main subject such as a person needs to have a position acquisition means. There is no.
[0085]
In the main control unit 18 of the imaging system 10 of the present embodiment, the relation data between the input control signal of the illumination device 2 and the illumination light intensity, the angle characteristic data of the radiation intensity of the illumination light, and the illuminance calculation on the object plane are previously stored. Formula data is acquired and stored in advance. Based on these data, the relative position signal 17, the main subject identification signal 15, and the determination signal 8, the movement plan and the lighting plan of the lighting device 2 are made, and the movement plan and the lighting plan signal 19 are output to the lighting device control unit 4. To do.
[0086]
The lighting device control unit 4 of the photographing system 10 according to the present embodiment generates a control signal 9 based on the movement plan and the lighting plan signal 19 and outputs the control signal 9 to the lighting device 2.
[0087]
Hereinafter, the operation of the photographing system 10 of the present embodiment will be described with reference to the flowchart shown in FIG. 10 and FIG.
[0088]
First, in step S1, an initial arrangement of the lighting device, the video acquisition unit, and the subject (or a background when the main subject is not in the frame) is performed, an initial illumination condition is set, the subject 5 is illuminated, and the operation is performed in step S2. Migrate to The initial illumination condition setting method is the same as that in the first embodiment.
[0089]
In step S2, the video signal is acquired by the video acquisition unit.
[0090]
In step S3, when a main subject such as a person has moved into the frame and already exists, the main subject is identified from the subject screen, and the operation proceeds to step S4.
[0091]
In step S4, the main subject and the background are separated, that is, the main subject and the background are distinguished to acquire the video signal of the divided screen, and the operation proceeds to step S5.
[0092]
In step S5, it is determined whether or not the luminance of the divided screen of the main subject is within the reference value. If not, a divided screen having an inappropriate luminance is specified, and the operation proceeds to step S7.
[0093]
In step S7, the relative positions of the main subject, the video acquisition unit, and the lighting device at this time are grasped, and the operation proceeds to step S8. The main subject is also located relative to the subject screen.
[0094]
In step S8, the main controller performs a lighting equipment movement plan and a lighting plan.
[0095]
In step S9, the lighting device control unit moves the lighting device to a preferred position for illuminating the main subject, and performs control for illuminating the lighting device with an appropriate emitted light intensity.
[0096]
In the imaging system of the present embodiment, when the main subject moving to the image acquisition unit jumps in, the illumination device moves to a preferred position and illuminates with an appropriate emitted light intensity, so that the luminance of the main subject is within the latitude range. You can adjust to the desired picture.
[0097]
[Fourth Embodiment]
The imaging system of this embodiment is shown in FIG. The imaging system of the present embodiment is the same as the imaging system of the third embodiment in that it is intended for a moving main subject, but both the video acquisition unit 1 and the lighting device 2 are used as main subjects such as people. On the other hand, it differs from the imaging system of the third embodiment in that it has both self-propelled means for moving to the optimum position.
[0098]
Hereinafter, the imaging system 10 of the present embodiment will be described with reference to FIG. The imaging system 10 of the present embodiment includes a video acquisition unit 1, a main subject identification unit 13, an illumination analysis determination unit 3, a relative position determination unit 16, a main control unit 18, a lighting device control unit 4, and a video acquisition unit control unit 24. It is comprised from the lighting equipment 2 with a self-propelled means, and the image | video acquisition part 1 with a self-propelled means.
[0099]
The lighting device 2 of the photographing system 10 of the present embodiment is the same as the lighting device 2 of the photographing system 10 of the third embodiment in that the lighting device 2 is self-propelled upon receiving the lighting device control signal 9 and illuminates. .
[0100]
Since the image acquisition itself of the image acquisition unit 1 of the imaging system 10 of the present embodiment is the same as that of the image acquisition unit of the imaging system of the first embodiment, description thereof is omitted. The video acquisition unit 1 of the imaging system 10 of the present embodiment moves based on the video acquisition unit control signal 22 generated based on the relative position of the main subject with respect to the video acquisition unit 1, and moves to change the orientation of the camera. With In addition, the video acquisition unit 1 of the imaging system 10 of the present embodiment outputs the video signal 7 to the illumination analysis determination unit 3 and the main subject identification unit 13.
[0101]
Since the method of identifying the main subject by the main subject identifying unit 13 of the imaging system 10 of the present embodiment is the same as the method already described in the third embodiment, description thereof is omitted.
[0102]
The illumination analysis determination unit 3 of the imaging system 10 of the present embodiment determines the quality of the illumination on the main subject based on the video signal 7 input from the video acquisition unit 1 and the segment signal 14 input from the main subject identification unit 13. The determination signal 8 is output to the main control unit. Since this determination method is the same as the method already described in the first embodiment, the description thereof is omitted.
[0103]
The relative position grasping unit 16 of the photographing system 10 according to the present embodiment detects the relative position among the main subject, the video acquisition unit 1, and the illumination device 2, and outputs the relative position signal 17 to the main control unit 18. Since the relative position grasping method is the same as the method already described in the third embodiment, the description thereof is omitted here.
[0104]
In the main control unit 18 of the imaging system 10 of the present embodiment, the relation data between the input control signal of the illumination device 2 and the illumination light intensity, the angle characteristic data of the radiation intensity of the illumination light, and the illuminance calculation on the object plane are previously stored. Expression data is acquired and stored in advance. Based on these data, the relative position signal 17, the main subject identification signal 15, and the determination signal 8, a movement plan and a lighting plan for the lighting device 2 are made and moved. The plan and lighting plan signal 19 is output to the lighting device control unit 4.
[0105]
The main control unit 18 acquires the relative position of the main subject with respect to the video acquisition unit 1 based on the main subject identification signal 15. The direction of the relative position is detected by the position of the person (main subject) on the subject screen, and the distance is detected by the size of the head of the person. Of course, the relative position of the main subject with respect to the video acquisition unit 1 may be acquired based on the relative position signal 17. The main control unit 18 outputs a video acquisition unit movement plan signal 21 to the video acquisition unit control unit 24 based on this relative position and a predetermined shooting composition.
[0106]
The lighting device control unit 4 of the photographing system 10 according to the present embodiment generates the lighting device control signal 9 based on the movement plan and the lighting plan signal 19 and outputs the lighting device control signal 9 to the lighting device 2.
[0107]
The video acquisition unit control unit 24 of the imaging system of the present embodiment generates a video acquisition unit control signal 22 based on the video acquisition unit movement plan signal 21 and outputs the video acquisition unit control signal 22 to the video acquisition unit 1.
[0108]
Transmission of the lighting device control signal 9 and the video acquisition unit control signal 22 to each controlled object may be either wireless or wired.
[0109]
Note that the video acquisition unit 1 of the imaging system of the present embodiment has a self-running means, but other main subject identification unit 13, illumination analysis determination unit 3, main control unit 18, lighting device control unit 4, video acquisition unit. Any one or more of the control units 24 may self-run together with the video acquisition unit 1.
[0110]
Hereinafter, the operation of the photographing system 10 of the present embodiment will be described with reference to the flowchart shown in FIG.
[0111]
First, in step S1, the video acquisition unit is positioned at an initial predetermined position (may be an arbitrary position), and the lighting device performs initial illumination (may have zero radiation intensity) from an initial predetermined position (may be an arbitrary position). Operation proceeds to step S2.
[0112]
In step S2, the video acquisition unit acquires a video signal, and the operation proceeds to step S3.
[0113]
In step S3, a main subject such as a person on the subject screen of the video signal is identified, its position is specified, and the operation proceeds to step S4.
[0114]
In step S4, the divided screen of the main subject and the divided screen of the main subject are separated from the subject screen to obtain a divided screen signal, and the operation proceeds to step S5.
[0115]
In step S5, the video acquisition unit is moved based on the position of the main subject specified in step S3 so as to obtain a predetermined shooting composition, and the operation proceeds to step S4.
[0116]
In step S6, whether or not the illumination state of the main subject is good is determined. If good, the operation proceeds to step S10, and if not, the operation proceeds to step S7.
[0117]
In step S7, the relative positional relationship among the main subject, the video acquisition unit, and the lighting device is grasped, and the operation proceeds to step S8.
[0118]
In step S8, an illumination plan for performing preferable illumination is made based on the relative positional relationship, and the operation proceeds to step S9.
[0119]
In step S9, the lighting device moves to a preferred position, performs illumination with a preferred radiation intensity, and proceeds to step S2.
[0120]
In step S10, photographing is recorded as necessary.
[0121]
In order to better grasp the concept of the imaging system 10 of the present embodiment, the simplest example will be described with reference to FIG.
[0122]
In this example, two illumination devices 2 illuminate the main subject 23 from the left side and the right side. Reference numeral 25 denotes a subject range (imaging range) of the video acquisition unit 1. In this state, the photographing system adjusts the lighting state, and when the main subject moves to the upper left toward the position indicated by “x”, the video acquisition unit 1 and the lighting device 2 move in parallel with each other in a relative positional relationship. Move and illuminate while holding
[0123]
The imaging system of the present embodiment grasps the relative positional relationship among the main subject, the video acquisition unit, and the lighting equipment, and the video acquisition unit and the illumination unit can move together, so it is optimal for the moving main subject as well. While tracking at the position and the optimum angle, the luminance range of the main subject can be adjusted within the latitude to continue taking favorable pictures.
[0124]
[Fifth Embodiment]
The present embodiment relates to an illumination condition setting method for determining illumination conditions of a plurality of illumination devices 2 that illuminate a subject 5 in an imaging system as shown in FIGS. 1, 7, 9, and 11. is there. In general, the cause of high luminance such as halation is not the reflection of the illumination light emitted from the lighting device 2, but the light emission of the subject itself or the light source (sunlight or room light) that is not controlled. is there. As a countermeasure, first, before performing optimization control, all lighting devices are turned off and only lighting effects created by light sources other than controllable lighting devices are recognized and analyzed. First of all, it is necessary to know whether it is caused by the problem. If it is possible to avoid lighting problems by controlling the lighting device group, grasp the lighting characteristics and lighting area of each lighting device, and optimize the lighting by the method described in the first to fourth embodiments. If not, a warning is issued to inform the photographer that the shooting environment itself will be reviewed.
[0125]
The illumination condition setting method of this embodiment will be described with reference to the flowchart shown in FIG.
[0126]
First, in step S1, lighting device 2- (1), lighting device 2- (2), lighting device 2- (3), lighting device 2- (4), and lighting device 2- (5) are all turned off, and step S2 Migrate the operation.
[0127]
In step S2, a video signal (luminance) of the divided screen of the subject video is acquired, and the operation proceeds to step S3. If it is determined at this stage that the luminance problem cannot be resolved only by controlling the lighting device, an alarm is issued to the photographer.
[0128]
In step S3, the luminance signal of the divided screen is stored in the storage device, and the operation proceeds to step S4.
[0129]
In this way, the influence of sunlight and self-luminous objects that are not controlled is acquired in advance and stored.
[0130]
In step S4, one target lighting device is turned on, and the operation proceeds to step S5. Non-target lighting equipment remains off.
[0131]
While increasing the control signal to the target lighting device in step S5, the luminance signal of the divided screen corresponding to the lighting region shared by the target lighting device is acquired, and the magnitude of the control signal and the lighting region shared by the target lighting device The relationship with the size of each luminance signal of all the divided screens corresponding to is acquired, and the operation proceeds to step S6. When the luminance signal of the divided screen is a signal from a plurality of photodetectors, the average value of these signals is usually used as the luminance signal of the divided screen because of the number of data.
[0132]
In step S6, the luminance signal from the light source other than the control target stored in step S3 is subtracted from the luminance signal of the divided screen acquired in step S5, and the size of the control signal to the target lighting device and the illumination shared by the target lighting device The relationship with the magnitude of the net luminance signal of the divided screen corresponding to the area is acquired, and the operation proceeds to step S7.
[0133]
In step S7, the relationship between the control signal for the lighting device acquired in step S6 and the net luminance signal of the divided screen is stored as a control signal-luminance signal table.
[0134]
This relationship is called in step S8 in the flowchart of the operation of the imaging system of the first embodiment shown in FIG. 2, and is a difference signal, a current control signal, and a table of the called control signal-luminance signal relationship. To determine the magnitude of the new control signal.
[0135]
According to the lighting condition setting method of the present embodiment, since the relationship between the magnitude of the control signal of each control device and the brightness of the corresponding divided screen is acquired, the magnitude of the control signal to the lighting device is set. As a result, the luminance range of the subject can be accurately set within the predetermined range 1 or the predetermined range 2.
[0136]
In addition, according to the illumination condition setting method of the present embodiment, if the influence of the light source that is not controlled in steps S1, S2, and S3 is evaluated in advance, the luminance range of the subject can be more accurately and accurately determined. It can be within the predetermined range 1 or the predetermined range 2.
[0137]
As described above, according to the imaging systems of the second to fourth embodiments, the main subject is identified, and the relative positional relationship such as “main subject” and “background (= distant view, middle view or other target object, close view)” is determined. Since it is clear, it is possible to obtain various effects such as, for example, enhancing the illumination light only on the main subject to enhance the brightness contrast with the background.
[0138]
As described above, in the first to fifth embodiments, the description has been given of the case of shooting with a shooting device such as a camera. However, the techniques of the first to fifth embodiments not only record or output the video acquired by the video acquisition unit for viewing, but also illuminate the audience on the spot, such as a concert or a stage. It can be easily understood that it is also effective when viewing the stage itself. (For example, the lighting of the background is turned off in synchronization with the situation of each scene of the stage play, and a specific actor (main subject) is illuminated and tracked to keep the speaker standing up. Is possible.)
For example, the techniques described in the first to fifth embodiments can be applied to a lighting system that illuminates the stage in the theater as follows. At this time, the video acquisition unit is provided at the representative position of the spectator seat and is used not only for taking a picture but only for specifying the position of an object such as a person instead of the main subject. The video acquisition unit is adjusted so that the lens is directed to the stage and the video of the entire stage is stored on the screen. Then, a moving person (main subject) on the stage is identified by the above-described image processing technology, and a position is specified. Based on this specified position, a lighting effect that gives a lighting effect with a favorable impression as viewed from the audience Find the position, direction, and intensity of the illumination light. If a control signal is sent to a lighting device with a self-propelled means and controlled so as to ensure the position, direction, and illumination light intensity thus obtained, an illumination system capable of being automatically illuminated can be constructed. According to such an illumination system, since the illumination is adjusted based on the result of photometry of the object for each divided screen, the luminance range of the object can be adjusted to the luminance range of an impression preferable for the audience.
[0139]
In addition, all modifications that can be easily inferred from the description of the present embodiment are included in the scope of the right of the present invention.
[0140]
【The invention's effect】
According to the photographing system of the present invention, since the illumination of the subject is adjusted based on the video information acquired from the subject, the luminance range of each unit is set to an appropriate latitude corresponding to the dynamic range of the video acquisition unit for a wide variety of subjects. You can adjust the range to take a good picture.
[0141]
In addition, according to the illumination system of the present invention, since the illumination is adjusted based on the video information acquired from the object, the luminance range of each part of the object can be adjusted to the luminance range of the impression preferable for the audience.
[0142]
Moreover, according to the illumination condition setting method of the present invention, the luminance range of the object can be accurately set within a predetermined range.
[Brief description of the drawings]
FIG. 1 is a block diagram of a photographing system according to a first embodiment.
FIG. 2 shows a flowchart of the operation of the photographing system of the first embodiment.
FIG. 3 shows a state of photographing with the photographing systems of the first and second embodiments.
FIG. 4 is a diagram illustrating a subject screen, a divided screen, a shared area of each lighting device, a non-illuminated area, and a lighting defect.
FIG. 5 shows a subject screen or a photograph taken with a lighting defect eliminated.
FIG. 6 is a flowchart illustrating an illumination method determination method according to a fifth embodiment.
FIG. 7 is a block diagram of a photographing system according to a second embodiment.
FIG. 8 shows a flowchart of the operation of the imaging system of the second embodiment.
FIG. 9 is a block diagram of a photographing system according to a third embodiment.
FIG. 10 shows a flowchart of the operation of the imaging system of the third embodiment.
FIG. 11 is a block diagram of a photographing system according to a fourth embodiment.
FIG. 12 shows a flowchart of the operation of the photographing system of the fourth embodiment.
FIG. 13 shows four types of lighting devices.
FIG. 14 shows a simplified concrete example of the imaging system of the fourth embodiment.
[Explanation of symbols]
1 Video acquisition unit
2 Lighting equipment
3 lighting analysis judgment part
4 Lighting equipment control unit
5 Subject
6 Subject light
7 Video signal
8 Judgment signal
9 Lighting equipment control signal
10 Shooting system
11 Illumination direction variable mechanism
12 Illumination position variable mechanism
13 Main subject identification part
14 Classification signal
15 Main subject identification signal
16 Relative position grasper
17 Relative position signal
18 Main control unit
19 Movement plan and lighting plan signal
21 Video acquisition unit movement plan signal
22 Video acquisition unit control signal
23 Main subjects
24 Image acquisition unit control unit
25 Subject range

Claims (8)

被写体の少なくとも一部の照明を行なう、照明条件可変の照明部と、
前記被写体の映像情報を取得する映像取得部と、
前記映像取得部により取得された映像情報を基に前記被写体の照明状態を分析し、前記照明状態の適否を判定する照明判定部と、
前記照明判定部による判定結果に基づいて前記照明条件を制御する照明機器制御部とを具えることを特徴とする撮影システム。
An illumination unit that illuminates at least a part of the subject and has variable illumination conditions;
A video acquisition unit for acquiring video information of the subject;
An illumination determination unit that analyzes the illumination state of the subject based on the video information acquired by the video acquisition unit and determines the suitability of the illumination state;
An imaging system comprising: an illumination device control unit that controls the illumination condition based on a determination result by the illumination determination unit.
請求項1に記載の撮影システムであって、
前記照明条件が、前記照明部の照明光の強度、前記被写体に対する前記照明部の照明角度、前記照明部の前記被写体に対する位置、及び照明光の分光特性から選ばれた一つ以上であることを特徴とする撮影システム。
The imaging system according to claim 1,
The illumination condition is at least one selected from intensity of illumination light of the illumination unit, illumination angle of the illumination unit with respect to the subject, position of the illumination unit with respect to the subject, and spectral characteristics of illumination light. A characteristic shooting system.
請求項1又は請求項2に記載の撮影システムであって、
前記照明判定部が前記映像情報の画面分割型測光に基づいて前記照明状態の適正さを判定することを特徴とする撮影システム。
The imaging system according to claim 1 or 2,
The imaging system, wherein the illumination determination unit determines appropriateness of the illumination state based on screen division type photometry of the video information.
請求項1〜3何れか1項に記載の撮影システムであって、
前記被写体中に主要被写体を識別する主要被写体識別部と、
前記主要被写体と前記照明部と前記映像取得部との相対位置関係を把握する相対位置把握部と、
前記相対位置関係に基づいて前記照明部を自走させる照明部自走手段とを具えることを特徴とする撮影システム。
The imaging system according to any one of claims 1 to 3,
A main subject identifying unit for identifying a main subject in the subject;
A relative position grasping unit for grasping a relative positional relationship between the main subject, the illumination unit, and the video acquisition unit;
An imaging system comprising: illumination unit self-propelled means for causing the illumination unit to self-run based on the relative positional relationship.
請求項1〜3何れか1項に記載の撮影システムであって、
前記被写体中に主要被写体を識別する主要被写体識別部と、
前記主要被写体と前記照明部と前記映像取得部との相対位置関係を把握する相対位置把握部と、
前記相対位置関係に基づいて前記照明部を自走させる照明部自走手段と、
前記相対位置関係に基づいて前記映像取得部を自走させる映像取得部自走手段とを具えることを特徴とする撮影システム。
The imaging system according to any one of claims 1 to 3,
A main subject identifying unit for identifying a main subject in the subject;
A relative position grasping unit for grasping a relative positional relationship between the main subject, the illumination unit, and the video acquisition unit;
Illumination unit self-running means for causing the illumination unit to self-run based on the relative positional relationship;
An imaging system comprising: a video acquisition unit self-running means for causing the video acquisition unit to self-run based on the relative positional relationship.
照明対象物を照明する、複数の照明機器を具えた照明システムの照明条件を決定する為の照明条件設定方法であって、
最初に各照明機器単独の個別照明特性を、残りの照明機器を全て消灯し、前記各照明機器の照明条件を変化させながら前記照明対象物を照明すると共に前記照明対象物の輝度を測定し、前記各照明機器の照明条件と前記照明対象物の輝度との関係を求めることによって取得することを特徴とする照明条件設定方法。
An illumination condition setting method for determining an illumination condition of an illumination system that illuminates an illumination object and includes a plurality of illumination devices,
First, individual lighting characteristics of each lighting device alone, turn off all remaining lighting devices, illuminate the lighting object while changing the lighting conditions of each lighting device and measure the luminance of the lighting object, An illumination condition setting method comprising: obtaining by obtaining a relationship between an illumination condition of each illumination device and a luminance of the illumination object.
請求項6に記載の照明条件設定方法であって、
更にその前に、前記複数の照明機器を全て消灯し、前記照明対象物の輝度を測定することにより、制御対象外の光源の影響を事前評価することを特徴とする照明条件設定方法。
The illumination condition setting method according to claim 6,
Furthermore, before that, the lighting condition setting method characterized in that the influence of the light source outside the control target is preliminarily evaluated by turning off all of the plurality of lighting devices and measuring the luminance of the illumination target.
照明対象物の照明を行なう照明条件可変の照明部と、
前記照明対象物の映像情報を取得する映像取得部と、
前記映像取得部により取得された映像情報を基に前記照明対象物の照明状態を分析し、前記照明状態の適否を判定をする照明判定部と、
前記照明判定部による判定結果に基づいて前記照明条件を制御する照明機器制御部とを具えることを特徴とする照明システム。
An illumination section with variable illumination conditions for illuminating an illumination object;
A video acquisition unit for acquiring video information of the illumination object;
An illumination determination unit that analyzes the illumination state of the illumination object based on the video information acquired by the image acquisition unit and determines whether the illumination state is appropriate;
An illumination system comprising: an illumination device control unit that controls the illumination condition based on a determination result by the illumination determination unit.
JP2003191232A 2003-07-03 2003-07-03 Photographing system, illumination system and illumination condition setting method Withdrawn JP2005024971A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003191232A JP2005024971A (en) 2003-07-03 2003-07-03 Photographing system, illumination system and illumination condition setting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003191232A JP2005024971A (en) 2003-07-03 2003-07-03 Photographing system, illumination system and illumination condition setting method

Publications (1)

Publication Number Publication Date
JP2005024971A true JP2005024971A (en) 2005-01-27

Family

ID=34188911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003191232A Withdrawn JP2005024971A (en) 2003-07-03 2003-07-03 Photographing system, illumination system and illumination condition setting method

Country Status (1)

Country Link
JP (1) JP2005024971A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014085437A (en) * 2012-10-22 2014-05-12 Nikon Corp Illumination auxiliary device
KR101491123B1 (en) * 2008-01-22 2015-02-09 삼성전자 주식회사 An intellectual flash apparatus of digital imaging device and flash methods thereof
US9007608B2 (en) 2012-05-24 2015-04-14 Ricoh Company, Ltd. Image processing apparatus and method for three-dimensional objects
JP2019516323A (en) * 2016-05-02 2019-06-13 クゥアルコム・インコーポレイテッドQualcomm Incorporated Imaging using multiple unmanned aerial vehicles
WO2022244577A1 (en) * 2021-05-21 2022-11-24 パナソニックIpマネジメント株式会社 Illumination adjusting device, illumination adjusting method, and product recognition system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101491123B1 (en) * 2008-01-22 2015-02-09 삼성전자 주식회사 An intellectual flash apparatus of digital imaging device and flash methods thereof
US9007608B2 (en) 2012-05-24 2015-04-14 Ricoh Company, Ltd. Image processing apparatus and method for three-dimensional objects
JP2014085437A (en) * 2012-10-22 2014-05-12 Nikon Corp Illumination auxiliary device
JP2019516323A (en) * 2016-05-02 2019-06-13 クゥアルコム・インコーポレイテッドQualcomm Incorporated Imaging using multiple unmanned aerial vehicles
WO2022244577A1 (en) * 2021-05-21 2022-11-24 パナソニックIpマネジメント株式会社 Illumination adjusting device, illumination adjusting method, and product recognition system

Similar Documents

Publication Publication Date Title
US8558913B2 (en) Capture condition selection from brightness and motion
CN1316814C (en) System and method to increase effective dynamic range of image sensors
US5808681A (en) Electronic still camera
EP1900197B1 (en) Image capturing apparatus with flash device
JP5610762B2 (en) Imaging apparatus and control method
JP4236433B2 (en) System and method for simulating fill flash in photography
US8472671B2 (en) Tracking apparatus, tracking method, and computer-readable storage medium
US20090160944A1 (en) Camera flash module and method for controlling same
JP2002034053A (en) Electronic camera
US20050046703A1 (en) Color calibration in photographic devices
JP2007110638A (en) Object analyzing apparatus, imaging apparatus, and image processing program
JP2003101876A (en) Camera with strobe adjustment function
US7268802B2 (en) Photography system with remote control subject designation and digital framing
JP2003046848A (en) Imaging system and program
JP4029206B2 (en) Imaging device
JP4842919B2 (en) Display device, photographing device, and display method
JP2005024971A (en) Photographing system, illumination system and illumination condition setting method
JP2016015017A (en) Imaging system, light projector and image processing method, beam light control method and program
JP2009088800A (en) Color imaging device
US7272305B2 (en) Photography system that detects the position of a remote control and frames photographs accordingly
JP2009124309A (en) Image device
Miao et al. Automatic red-eye detection and removal
JP2015118274A (en) Imaging device, imaging device control method, and program
JP2007282161A (en) Luminance adjusting apparatus, and luminance adjustment control method
JP6725030B2 (en) Imaging device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060905