JP2010134363A - 照明制御装置および方法 - Google Patents

照明制御装置および方法 Download PDF

Info

Publication number
JP2010134363A
JP2010134363A JP2008312375A JP2008312375A JP2010134363A JP 2010134363 A JP2010134363 A JP 2010134363A JP 2008312375 A JP2008312375 A JP 2008312375A JP 2008312375 A JP2008312375 A JP 2008312375A JP 2010134363 A JP2010134363 A JP 2010134363A
Authority
JP
Japan
Prior art keywords
illumination
light emitting
lens
light
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008312375A
Other languages
English (en)
Inventor
Hiroshi Yoshikawa
博志 吉川
Kenji Saito
謙治 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008312375A priority Critical patent/JP2010134363A/ja
Publication of JP2010134363A publication Critical patent/JP2010134363A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Stroboscope Apparatuses (AREA)
  • Arrangement Of Elements, Cooling, Sealing, Or The Like Of Lighting Devices (AREA)
  • Non-Portable Lighting Devices Or Systems Thereof (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)

Abstract

【課題】 高い応答性で被写体に対して照明を行うこと。
【解決手段】 レンズと、当該レンズから所定の位置に配置された複数の発光素子とから構成される照明装置を制御する照明制御装置であって、照明対象の位置情報を取得する取得手段と、前記照明対象の位置情報に基づく前記レンズの中心と前記照明対象との位置関係から、前記複数の発光素子の発光を制御する制御手段とを有することを特徴とする。
【選択図】 図1

Description

本発明は,照明対象へ照明光を照射するための照明制御装置および方法などに関する。
写真撮影やビデオ撮影では、被写体の撮影画像の画質を向上させるために、移動する被写体の特定部位を追従して照明する照明装置が用いられている。被写体を追従する照明装置を用いることにより、撮影画像における被写体の輝度が高くなり、撮影画像から被写体を検出することも容易になる。
特に、監視カメラを用いた監視システムでは、人物の顔領域に照明を当てることにより、撮影画像から人物を認識する精度を向上させることが出来る。
また、被写体の特定領域にのみ照明を照射するため、撮影領域全体に照明を行う装置よりも照明に使う消費電力を低下させることが出来る。
照明装置の従来技術として、特許文献1には、被写体を撮影した撮影画像から被写体(照明対象)の領域を抽出し、抽出された領域の位置に基づき、照明装置の照明の向きを制御することが開示されている。
特開平10−12005
特許文献1に開示されている照明装置では,照明装置に配設された駆動部を駆動させることによって、照明対象の動きに照明の向きを追従させる。しかしながら、特許文献1に開示されている照明装置では、照明対象が高速で移動する場合、駆動部の駆動が間に合わず、照明対象を照明することができない場合がある。また、照明装置の照明部の数が被写体の数よりも少ない場合には、すべての照明対象を同時に照明することは出来ない。
本発明は、以上の課題を鑑みてなされたものであり、高い応答性で照明対象に対する照明を行うことを目的とする。
本発明は、レンズと、当該レンズから所定の位置に配置された複数の発光素子とから構成される照明装置を制御する照明制御装置であって、照明対象の位置情報を取得する取得手段と、前記照明対象の位置情報に基づく前記レンズの中心と前記照明対象との位置関係から、前記複数の発光素子の発光を制御する制御手段とを有することを特徴とする。
本発明によれば、高い応答性で照明対象に対する照明を行うことが出来る。
(第一の実施形態)
以下、添付図面を参照して、本実施形態について説明する。なお、各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。
図1は、本実施形態における照明装置および照明制御装置の概略側面図を示したものである。
図2は、本実施形態における照明装置および照明制御装置の概略上面図を示したものである。
以下、図1および図2における照明装置の各構成を説明する。尚、本実施形態における照明対象(被写体)は人物の顔であり、本実施形態における照明装置は人物の顔を追従照明する。
10は、撮影領域内の任意の位置に対して照明光を照射することができる任意位置照明装置10である。任意位置照明装置10は、複数の発光素子から構成される。任意位置照明装置10の詳細な構成については後述する。
20は、撮影領域を撮像し、撮影画像を取得する撮像手段20である。撮像手段20は、ビデオカメラなどから構成される。撮像手段20の詳細な構成については後述する。
25は、撮影手段20で取得された撮影画像から撮影画像中の被写体の奥行きを推定する奥行き推定手段25である。奥行き推定手段25は、CPU(セントラルプロセッシングユニット)、奥行きを推定するための画像処理プログラムが格納されたRAM(ランダムアクセスメモリ)などから構成される。奥行き推定手段25は、撮影手段20で撮影された撮影画像を元に撮影シーンの奥行き情報を推定する。奥行き情報の推定には、例えば、ステレオマッチング法という手法がある。ステレオマッチング法は、撮影手段20が2眼カメラで構成され、それぞれのカメラで撮影画像を取得する場合に用いられる。ステレオマッチング法では二つの画像間で対応点検索を行い、二つのカメラ間の距離である基線長と視差情報から三角測量の原理に基づき、奥行きを推定する。奥行き推定処理は、パーソナルコンピューター上で動作するプログラムで行っても、処理をハードウエアー化したもので行っても良い。
ステレオマッチング法では、2眼カメラが必要となるが、他のカメラや推定機を用いて奥行きを推定することも可能である。
例えば、投射光の反射時間によって被写体までの距離を測定するTOF(Time of flight)カメラでも奥行きを推定することが可能である。この技術では投射光を照射する手段が別途必要になるが、一つのカメラで奥行き推定が可能になる。
また、Coded Aperture技術と呼ばれる技術も用いることができる。この技術では、レンズの開口部を符号化し、撮影画像を解析することで、単眼での奥行き推定が可能になる。
30は、撮影手段20で取得された撮影画像から撮影画像中の被写体の位置を検出する被写体位置検出手段30である。被写体位置検出手段30は、CPU(セントラルプロセッシングユニット)、被写体の位置を検出するための画像処理プログラムが格納されたRAM(ランダムアクセスメモリ)などから構成される。
被写体位置検出手段30では撮影手段20で取得された撮影画像から被写体、すなわち、人物の顔領域を検出する。これは、特徴量による検出技術を使っても良いし、種々の公知の手法を適用できる。
顔領域の検出処理はパーソナルコンピューター上で動作するプログラムでも、処理をハードウエアー化したもので行っても良い。
40は、任意位置照明装置10が有する発光素子アレイ12の発光を制御する発光素子アレイ制御手段40である。発光素子アレイ制御手段40は、発光素子12の2次元的な発光位置を制御する制御基盤などから構成される。照明装置の制御の詳細については後述する。
50は、撮影手段20で撮影され、任意位置照明装置10で照明光が照射される被写体50(人物の顔)である。
以上が、本実施形態における照明装置の構成の概略である。次に、本実施形態における任意位置照明装置10の構成を説明する。
図3は、本実施形態における任意位置照明装置10の構成を示した図である。
11は、複数のレンズが2次元的に配列されたマイクロレンズアレイ11である。
12は、被写体50に対して照明光を照射する発光素子アレイ12である。発光素子アレイ12は、複数の発光素子を2次元的に配列したLCD(液晶ディスプレイ)、LEDアレイ、有機ELディスプレイなどから構成される。発光素子は、マイクロレンズアレイから所定の位置(例えば、焦点位置)に配置される。また、それぞれの発光素子は、発光・非発光の切替えだけでなく、中間階調で発光できるものが望ましい。理由については、後述する。
発光素子アレイ11が照射する照明光の発光波長としては、白色光を用いると、撮影画像の輝度が上がり、撮影画像の画質を向上させることが出来る。ただし、人物を監視する監視装置として用いる場合、人間には不可視である赤外線光を用いるほうが良い。
図4は、任意位置照明装置10の発光方式および詳細な構造を示す図である。
11aは、マイクロレンズアレイ11を構成する要素レンズである。
12a〜12kは、発光素子アレイ12を構成する発光素子である。図4におけるfは、要素レンズ11aの焦点距離を示しており、前述したように、焦点距離f上に発光素子12a〜12kが配置されている。
任意位置照明装置10は、発光素子12a〜12kの発光を制御することで、任意の位置に照明光を照射することが出来る。以下に詳細を説明する。
例えば、要素レンズ11aの光軸上にある発光素子12fから出射した光は、光軸となす角0°の略平行光Rfとなる。また、光軸からhだけ離れた発光素子12kから出射した光は光軸となす角θの略平行光Rkとなる。hとfとθの関係は以下の式で記述される。
θ=tan−1(h/f) ・・・ 式(1)
すなわち、発光させる発光素子hを選択することにより、θを制御することが可能になる。よって、例えば、被写体と要素レンズ11aの中心とを結ぶ直線と要素レンズ11aの光軸とから、θを算出し、発光させるべき発光素子の位置hを求めることが可能である。
図5は、照射対象に対して照明を照射する具体的な方法を示した図である。
11aと11a’は、要素レンズであり、12a〜12jは要素レンズ11aに対応する発光素子アレイであり、12a’〜12j’は要素レンズ11a’に対応する発光素子アレイである。
図5では、発光素子アレイ12a〜12jと12a’〜12j’を用いて領域51を照射する状態を示している。式(1)で説明したように、領域51を照射するために発光させるべき発光素子は、領域51と要素レンズとの位置関係から求めることが出来る。図5に示す通り、発光素子12dと12j’をそれぞれ発光させると、領域51を照射可能になる。
つまり、12dから出射し11aに入射した光線Rdは照射領域51を照射され、12j’から出射し11a’に入射する光線Rj’は領域51を照射される。このように、発光させる発光素子を制御することにより、任意の位置の照射領域51を照射することが可能になる。
しかしながら、発光素子12dから照射された光は直前に配置された要素レンズ11aだけでなく、隣接する要素レンズ11a’にも入射してしまう。この光は領域51に入射しない光線Rdnとなるため、ノイズ光となる。このようなノイズ光は、領域51を適切に撮像するためには妨げとなる。このようなノイズ光を除去もしくは低減させるための技術を、次に説明する。
図6は、発光素子アレイ間に遮光部材を配置した状態を示す図である。14は隣接する要素レンズに光が入射することを防止するための遮光部材である。発光素子12dから照射された光は要素レンズ11a’に入射する前に、遮光部材14に遮光される。このような遮光版14を配置することにより、ノイズ光を除去もしくは低減させることが出来る。尚、遮光部材14としては、ブラックアルマイト加工のような表面粗し加工を施した部材を使うことが好ましい。
以上が、任意位置照明装置10の発光方式および詳細な構造である。
次に、撮像手段20の詳細な構造について説明する。
図7は、撮像手段20の上面図を示したものである。
21、22は、撮像手段20の構成の一部であるカメラ21、22である。各カメラ21、22は、焦点距離Fの撮像レンズ21a、22aおよびイメージセンサ21b、22bから構成される。カメラ21、22で撮像された撮影画像21c、22cは、奥行き推定手段25に出力される。尚、カメラ21、22に動画像を撮影可能なビデオカメラを用いることにより、被写体50の移動を検出する移動検出手段として機能し、発光素子アレイ制御手段40は検出結果に基づき発光を制御することも可能である。
以上が、撮像手段20の詳細な構造である。
次に、発光素子アレイ12の望ましい機能について説明する。本実施形態に用いられる発光素子12は、発光/非発光の切り替えを行えるだけでなく、発光強度も調整できることが好ましい。理由は2つある。
1つ目の理由は発光アレイの発光位置により、レンズに入射する光束が異なることである。
図8、図9は要素レンズ11aと対応する発光アレイ部12を拡大表示したものである。図8は発光位置が要素レンズの中心12ceである場合,図9は要素レンズの端12edである場合である。レンズに入射する光束の範囲をLIで示す。図8から要素レンズの光軸に近い発光素子からの入射光束は多く、図9から要素レンズの周辺部ほど入射光束は減少することがわかる。各レンズからの一定の照度で被写体を照明するためには、図10に示すように周辺部ほど強く発光させ、中央部を弱く発光させる必要がある。
2つめの理由は、照明と被写体の距離による明るさの変化である。
近くの被写体と遠くの被写体を同じ発光強度で照明すると、遠くの被写体は暗く写り、近くの被写体は明るく写る。したがって、遠くの被写体を強い発光強度で照明し、近くの被写体を弱い発光強度で照明すれば画像上での写り方は距離に依存せず、常に一定の明るさで顔検出・認識処理をすることができる。
これら2つの理由から発光位置のON/OFFだけでなく、例えば、不図示の距離検出手段もしくは奥行き推定手段25により検出された被写体と任意位置照明装置10との距離に基づき、発光強度の調整ができることが好ましい。
次に、本実施形態における照明装置の制御について説明する。
図11は、本実施形態における照明装置の制御の方法を示すフローチャートである。図11に示す各処理は、撮影手段20、奥行き推定手段25、被写体位置検出手段30、発光素子アレイ制御手段40、図1および図2に不図示の制御手段のいずれかが行うものである。
(S11)S11(画像撮像)では、撮影手段20が被写体50を撮像し、撮影画像を取得する。
(S12)S12(奥行き推定処理)では、奥行き推定手段25が、S11で取得された撮影画像に基づき、撮影シーンの奥行き情報(撮影手段20から被写体50までの距離情報)を推定する。奥行き情報の算出には、前述したステレオマッチング法などを用いる。
(S13)S13(顔検出処理)では、被写体位置検出手段30が、S11で取得された撮影画像内における被写体50(人物の顔)の領域を検出する。そして、画像座標上における被写体50(人物の顔)の中心位置(x,y)も算出する。
(S14)S14(被写体位置情報算出)では、被写体位置検出手段30が、S13で算出した顔中心画像座標(x,y)に対応する奥行き座標Zを抽出する。そして、顔中心画像座標(x,y)と世界座標のZ座標であるZから世界座標上での顔中心位置(X,Y,Z)を算出する。世界座標上における顔中心位置(X,Y)は、以下の式により算出することが可能である。
撮像手段20の撮像レンズの焦点距離Fcとすると、X、Yは相似の関係から以下の式で算出される。
=x・Z/F ・・・ 式(2)
=y・Z/F ・・・ 式(3)
(S15)S15(発光素子アレイの発光位置算出)では、発光素子アレイ制御手段40が、被写体50の世界座標(X,Y,Z)に基づき、被写体50を照射するために発光すべき発光素子の位置を算出する。以下に、発光すべき発光素子の位置の算出方法について説明する。
図12は、発光すべき発光素子の位置の算出方法を示した図である。説明の簡単化のために、YZ座標の2次元で算出を行い、要素レンズの数Nは偶数とする。図12において、世界座標系の原点Oをマイクロレンズアレイの中心とマイクロレンズアレイ面11pとの交点を世界座標の原点(任意位置照明装置10)Oとする。
被写体の世界座標を(Y,Z)、レンズアレイのY方向の要素レンズ数をN、要素レンズの直径lとすると、n番目の要素レンズの中心の座標YLnは以下の式で表される。
Ln=−l・(N+1)/2+l・n ・・・ 式(4)
発光素子から出射する光線は、要素レンズの直径と同じ大きさの直径であり、光軸からθだけ傾いた平行光で出射される。ここでは、要素レンズの中心を通過する光線で大きさを持つ略平行光を代表させることにする。
被写体位置を通過し、n番目の要素レンズの中心を通過する光線の要素レンズ光軸に対する角度θで表される。
θ=tan−1{(Y−YLn)/Z} ・・・ 式(5)
角度θで要素レンズから光線を出射させるために必要な、要素レンズの光軸からのずれ量Yは以下の式で表される。
=f・tan(−θ) ・・・ 式(6)
従って、光源アレイ上での発光点の座標位置Ysaは以下の式となる。
sa=YLn+Y ・・・ 式(7)
つまり、1〜N番目の要素レンズに対してそれぞれYsaを算出し、その位置に対応する発光素子を発光させることで、世界座標(Y,Z)に存在する被写体を照明することが可能になる。
第一の実施形態における任意位置照明装置で被写体に全ての要素レンズからの光線を照射可能な範囲は図12の70で示す範囲である。以下の式(8)、(9)、(10)で記述される。
Z<N・l/2・tanφ ・・・ 式(8)
ここで、
φ=tan−1(l/2/f) ・・・ 式(9)
−(Ztanφ−N・l/2)<Y<(Ztanφ−N・l/2) ・・・ 式(10)
S16(被写体位置を照明)では、発光素子アレイ制御手段40は、S15で算出された位置の発光素子を点灯させる。これにより被写体位置を照明できる。
ただし、発光素子は連続的でなく、離散的にしか存在しないため、Ysaの座標位置を含む発光素子を点灯させることになる。
角度分解能と各要素レンズ後方にある発光素子数にはトレードオフの関係がある。角度分解能を増やそうとすると各要素レンズ後方にある発光素子数を増加させる必要がある。
また、角度分解能はtanの関数であるため、光軸に近いほど分解能が低く、周辺部に近いほど分解能は高くなる。
S15では顔中心座標に対する発光素子アレイの発光位置を算出したが、被写体には大きさがある。顔の場合には標準的な顔半径rを用いて、顔中心座標からrの範囲に照射することが考えられる。あるいは、顔検出領域のサイズをそのまま用いて、照射範囲を決めてもよい。
S17(終了指示)では、ユーザーからの終了指示がnoの場合、制御手段がS11〜S16までの処理を繰り返し実行する。これにより被写体を追従照明することが可能になる。終了指示がyesの場合には追従照明を終了する。
次に、複数名の人物の顔を検出し、追従照明する場合のフローチャートを図13に示す。
図13に示す各処理は、撮影手段20、図11の各処理と同様に、奥行き推定手段25、被写体位置検出手段30、発光素子アレイ制御手段40、図1および図2に不図示の制御手段のいずれかが行うものである。
S21(画像撮像)では、撮像装置20が被写体50を撮像し、撮影画像を取得する。
S22(奥行き推定処理)では、奥行き推定処理部25が、S21で取得された撮影画像に基づき、撮影シーンの全ての画素に対して奥行き情報(撮影手段20から画素までの距離情報)を推定する。奥行き情報の算出には、前述したステレオマッチング法などを用いる。
S23(M名の顔検出処理)では、被写体位置検出手段30が、S21で取得された撮影画像を用いて、複数名分の顔領域を検出する。顔検出処理により検出された人数をMとする。そして、画像座標上におけるM名分の顔の中心位置(xom,yom)(m=1〜M)を算出する。
S24(M名の被写体位置算出)では、奥行き推定手段25が、M名分の顔中心画像座標(xom,yom)(m=1〜M)に対応する奥行き座標Zom(m=1〜M)を抽出する。次に、画像座標(xom,yom)と世界座標のZ座標であるZomから式(2)、式(3)を用いて世界座標上での顔中心位置(Xom,Yom,Zom)(m=1〜M)を算出する。
S25(M名の発光素子アレイの発光位置算出)では、発光アレイ制御手段40が、顔中心の世界座標(Xom,Yom,Zom)と式(7)を用いて被写体中心に対応する発光素子アレイの発光位置を算出する。
S26(M名の被写体位置を照明)では、発光素子アレイ制御手段40が、S25で算出した位置の発光素子を点灯させる。これにより被写体位置を照明できる。
S27(終了指示)では、制御手段が、ユーザーからの終了指示がnoの場合、S21〜S26を繰り返し実施する。ユーザーからの終了指示がyesの場合、追従照明を終了する。
以上が、本実施形態の処理である。本実施形態の照明装置によれば、照明の際に駆動部を駆動させる必要がないため、被写体の動きに対して高い応答性で照明を行うことが出来る。また、あらかじめ複数の照明装置を配置せずに、複数の被写体に対して照明を行うことが可能になる。
(第二の実施形態)
図14は、本実施形態に係る照明装置の概略図を示したものである。本実施形態における照明装置と第一の実施形態における照明装置とでは、任意位置照明装置10の構成が異なる。
図15は、第一の実施形態と異なる任意位置照明装置10の概略図を示したものである。本実施形態における任意位置照明装置10は、第一の実施形態と同様の発光素子アレイ12、およびマイクロレンズアレイ11と、第一の実施形態と異なる結像レンズ13から構成される。
結像レンズ13は、基準平面60の像をマイクロレンズアレイ面11pに結像するように構成される。
座標系の原点Oを結像レンズ13の光軸と結像レンズ面13pの交点とする。結像レンズ13の焦点距離をF、原点から基準平面までの距離をZof、原点からマイクロレンズアレイ面までの距離をZとすると、結像レンズ13は、以下の結像公式(11)を満たすように配置される。
1/F=1/Z+1/Zof ・・・ 式(11)
被写体を追従するフローは第一の実施形態と同様である。
ただし、被写体位置(X,Y,Z)に応じた発光素子アレイの発光位置を算出する式が異なる。よって、図16を用いて発光素子アレイの発光位置を算出する式を説明する。
以下では、簡単のためにYZ座標の2次元で考える。
被写体の世界座標での位置を(Y、Z)とする。
式(11)をZが右辺にくるように整理すると、以下の式(12)になる。
=1/(1/F−1/Zof) ・・・ 式(12)
光学系の基準平面における結像倍率MはZを用いて以下の式(13)で表される。
=−Zof/ Z ・・・ 式(13)
世界座標で(Y、Zof)にある基準平面上の点の結像関係を考える。マイクロレンズアレイ面上での像高YIfは以下の式(14)で表される。
IF=M・Y ・・・ 式(14)
一方、Z方向の結像位置は式(12)で与えられる。
次に(Y、Z)の結像位置Zを考える。結像公式からZは、以下の式(15)で表される。
=1/(1/F−1/Z) ・・・ 式(15)
被写体の結像倍率MはZとZから以下の式(16)となる。
M=−Z/Z ・・・ 式(16)
像高YはMを用いて、以下の式(17)となる。
=M・Y ・・・ 式(17)
第一の実施形態の任意位置照明装置では、マイクロレンズアレイの要素レンズ数の光線で被写体を照明した。一方、本実施形態では結像レンズ面を分割し、その分割数の光線で被写体を照明する。
結像レンズの開口直径をDとし、分割数をKとする。k番目の分割位置で結像レンズ面を通過する光線のY座標YMkは以下の式(18)で与えられる(k=1〜K)。
Mk=−D/2+(k−1)・D/(K−1) ・・・ 式(18)
結像レンズ面のk番目の分割位置YMkを通過する光線がマイクロレンズアレイ面を通過するときのY座標YLkは相似の関係から、以下の式(19)で記述される。
Lk=YMk−(YMk−Y)・Z/Z ・・・ 式(19)
したがって、上記光線が通過する要素レンズの番号nは以下の式(20)で与えられる。
n=[N/2+YLk/l] ・・・ 式(20)
ただし、[ ]はカッコ内の実数を整数化する記号である。n番目の要素レンズのY方向中心座標YLnは式(4)で与えられる。
次に上記光線の通過方向θを考える。三角形の関係から以下の式(21)で与えられる。
θ=tan−1{(YMk −Y)/Z} ・・・ 式(21)
このとき、通過方向θkの場合、要素レンズの光軸からのずれ量Yskは三角形の関係から以下の式(22)で与えられる。
sk=f・tan(θ)・・・式(22)
光源アレイ上での発光位置Ysakの座標は以下の式(23)で与えられる。
sak=YLn+Ysk・・・式(23)
この光源アレイ上での発光位置Ysakを全てのkに対して計算し、対応する位置の発光素子アレイを点灯すれば、被写体位置(Y、Z)を照明することができる。
第一の実施形態で用いた任意位置照明装置では要素レンズと発光素子アレイの間に遮光部材を配置することで迷光の発生を抑制できた。これは各要素レンズに対応する発光素子が要素レンズの後方に位置する発光素子だけなので、遮光部材を配置することにより回避することが出来た。
一方、本実施形態で用いる任意位置照明装置の場合、各要素レンズに対応する発光素子が要素レンズの後方に位置するものだけとは限らない。すなわち隣接、あるいは、2つ以上離れた要素レンズの後方に位置する発光素子からの光も利用する可能性がある。そのため、迷光の発生を抑制するために、遮光部材を用いることはできず、何らかの工夫が必要になる。
例えば、結像レンズの直径・焦点距離とレンズアレイの直径・焦点距離に工夫を加えることが考えられる。被写体に照射する有効な光以外の光を結像レンズに入射しないように設計することで、上記問題は解決される。
第一の実施形態における任意位置照明装置の場合には被写体は略平行光で照射されるが本実施形態における任意位置照明装置の場合には、発散光で照射される。
図17に示すように発光素子アレイ12をマイクロレンズアレイ13の焦点面に配置したので、発光素子アレイから出射した光RELはマイクロレンズの要素レンズから出射後、略平行光RPLとなる。略平行光で結像レンズに入射するため、結像レンズの焦点位置LFに集光する光RCLとなる。結像レンズの焦点距離よりも手前に被写体を配置することは照射領域の制限上あまりないので、被写体は発散光RCLで照射されることになる。ただし、発散光の拡がり具合は被写体の位置によって変化する。
この発散光の拡がり具合のばらつきを抑える方法としては、発光素子アレイ12とマイクロレンズアレイ11の間隔をマイクロレンズアレイの焦点距離fよりも小さくすることが挙げられる。これを行うと、図18に示すように、発光素子アレイの共役位置LCをレンズの焦点位置LFよりも被写体側にシフトさせることができる。
LCのシフトに伴い、結像レンズ透過後の光線の集光位置もLFからLCにシフトする。複数の被写体が位置する平均的な距離が予め判明している場合には、その近辺に発光素子アレイの共役位置LCを設定することで、発散光の拡がり具合のばらつきが小さい任意位置照明装置を実現できる。
(第三の実施形態)
図19は、本実施形態における照明装置の概略図を示したものである。
第一の実施形態および第二の実施形態と異なる点は、ハーフミラー22を有していることである。
本実施形態では、撮像に用いる撮像レンズと、任意位置照明装置に用いる結像レンズを、ハーフミラー22を用いて共有化している。よって、第一の実施形態および第二の実施形態に比べて、コンパクトな構成の被写体追従照明を実現できる。
(第四の実施形態)
図20は、本実施形態における監視装置の概略構成図を示したものである。本実施形態は、第一の実施形態における照明装置に監視機能を追加したものである。第二の実施形態、あるいは第三の実施形態にも同様の機能を追加することは可能である。
本実施形態における照明装置には、第一の実施形態から第三の実施形態の照明装置に対して、被写体認識手段35、データベース36、表示手段37が追加されている。
被写体認識手段35は、被写体が要注意人物であるか否かの認識処理を行うためのCPU(セントラルプロセッシングユニット)、データを一時的に記憶するRAM(ランダムアクセスメモリ)などから構成される。認識処理には、公知の技術である画像中の特徴点の配置情報に基づき人物の類似度を評価する手法など種々の手法を用いることができる。また、認識処理はパソナルコンピューター上で動作するプログラムでも、処理をハードウエアー化したものいずれを用いても良い。
データベース36は、HDD(ハードディスクドライブ)やデータサーバーなどの記録手段から構成される。データベース36には、要注意人物の顔の特徴などが記録されており、被写体認識手段35はデータベース36に記録されている要注意人物の顔の特徴に基づき、被写体の認識を行うことが可能となる。データベース36には、情報を記録する機能と、被写体認識手段35と通信を行うための通信機能が備わっている。
表示手段37は、CRT、LCD、プラズマディスプレイなど種々の表示手段から構成される。
図21は、本実施形態における1名の人物の監視を行う場合のフローチャートである。
本実施形態における顔認識処理では、まず被写体に照明を当てずに顔認識処理を行い、顔認識処理に失敗した場合、追従照明を被写体に当てて顔認識処理を再び行う。以上の処理により、照明条件の不均一性が軽減され認識精度の向上が見込まれる。尚、図21に示す各処理は、撮影手段20、奥行き推定手段25、被写体位置検出手段30、発光素子アレイ制御手段40、不図示の制御手段のいずれかが行うものである。
S31(画像撮像)では、撮像手段20が被写体50を撮像し、撮影画像を取得する。
S32(奥行き推定処理)では、奥行き推定手段25が、S31で取得された撮影画像に基づき、撮影シーンの全ての画素に対して、奥行き情報を算出する。
S33(顔検出処理)では、被写体位置検出手段30が、S31で取得された撮影画像を用いて、顔領域を検出する。さらに、画像座標上での顔の中心位置(xo,yo)を算出する。
S34(顔認識処理)では、被写体認識手段35が、S33で検出された顔検出領域に対して顔認識処理を実行する。顔認識が成功した場合にはS39に、失敗した場合にはS35に処理を進める。
S35(被写体位置情報算出)では、発光素子アレイ制御手段40が、顔中心画像座標(xo,yo)と対応する奥行き座標Zoを用いて、式(2)、式(3)から世界座標上における顔位置(Xo,Yo,Zo)を算出する。
S36(発光素子アレイの発光位置算出)では、発光素子アレイ制御手段40が、顔中心の世界座標(Xo,Yo,Zo)と式(7)を用いて被写体中心に対応する発光素子アレイの発光位置を算出する。
S37(被写体位置を照明)では、発光素子アレイ制御手段40が、S36で算出した位置の発光素子を点灯させる。これにより被写体位置を照明することができる。
S38(顔認識処理)では、制御手段が、照明を照射した状態で再度顔認識処理を行う。顔認識が成功した場合にはS39へ、顔認識が失敗した場合にはS43へ進む。
S38で実施する顔認識処理では顔に対してカメラ側から照明を当てた画像を用いてデータベースを作成することが望ましい。追従照明はカメラ側から照射されるのでデータベースと撮影画像の照明変動は小さく、認識精度の向上が望める。
S39(要注意人物判定)では、被写体認識手段35が、顔認識の結果、被写体である人物が要注意人物であるかどうかの判定を行う。要注意人物に関する情報は予めデータベースに登録しておく。データベースに登録されている要注意人物の情報に該当した場合、被写体が要注意人物であるとみなしS40へ、要注意人物とみなされない場合S42へ進む。
S40(警告 or 追従照明)では、制御手段が、被写体である人物が要注意人物であることを監視モニター上に表示し、ユーザーに警告する。このとき、追従照明を持続させても良い。
S41(終了指示)では、制御手段が、ユーザーからの終了指示がnoの場合、警告の表示と追従照明の繰り返しを行う。終了指示がyesの場合には、S42へ進む。
S42(終了指示)では、制御手段が、ユーザーからの終了指示がnoの場合、S31〜S41を繰り返しを行う。ユーザーからの終了指示がyesの場合、追従照明を終了する。
次に、M名の人物の監視を行う場合の追従照明の処理を説明する。
図22は、本実施形態におけるM名の人物の監視を行う場合のフローチャートである。
図21の場合と同様、まず被写体に照明を当てずに顔認識処理を行い、顔認識処理に失敗した場合、追従照明を被写体に当てて顔認識処理を再び行う。以上の処理により、照明条件の不均一性が軽減され認識精度の向上が見込まれる。
S51(画像撮像)では、撮像手段20が被写体50を撮像し、撮影画像を取得する。
S52(奥行き推定処理)では、奥行き推定処理部25が、S51で取得された撮影画像に基づき、撮影シーンの全ての画素に対して、奥行き情報を算出する。
S53(M名の顔検出処理)では、被写体位置検出手段30が、S51で取得された撮影画像を用いて、複数名分の顔領域を検出する。さらに、画像座標上での顔の中心位置(xo,yo)を算出する。M名分の画像座標上での顔の中心位置(xom,yom)(m=1〜M)を算出する。
S54(M名の顔認識処理)では、被写体認識手段35が、S53で検出されたM名分の顔検出領域に対して顔認識処理を実行する。ここで、顔認識に成功した人数をiとする(i≦M)。顔認識に成功したi名分のデータの処理はS59に進んで行い、顔認識に失敗した(M−i)名分のデータの処理はS55に進んで行う。
S55((M−i)名の被写体位置情報算出)では、発光素子アレイ制御手段40が、顔中心画像座標(xom,yom)と対応する奥行き座標Zomを用いて、式(2)、式(3)から世界座標上での顔位置(Xom,Yom,Zom)(m=1〜M−i)を算出する。
S56((M−i)名の発光素子アレイの発光位置算出)では、発光素子アレイ制御手段40が、顔中心の世界座標(Xom,Yom,Zom)と式(7)を用いて被写体中心に対応する発光素子アレイの発光位置を算出する。
S57((M−i)名の被写体位置を照明)では、発光素子アレイ制御手段40が、S56で算出した位置の発光素子を点灯させる。これにより(M−i)名の被写体位置を照明することができる。
S58((M−i)名の顔認識処理)では、被写体認識手段35が、照明が照射された状態で再度顔認識処理を行う。ここで、顔認識に成功した人数をjとする(j≦M−i)。顔認識が成功したj名分のデータの処理はS59に進んで行い、顔認識が失敗した(M−i−j)名分のデータの処理はS62に進んで行う。
尚、S58で実施する顔認識処理では、被写体の顔に対して撮像手段20側から被写体に照明を当てた場合の画像をデータベース36の情報として用いることが望ましい。追従照明は撮像手段20側から照射されるので、データベース36の情報と撮影画像の照明変動は小さく、認識精度の向上を望むことができる。
S59(要注意人物判定)では、顔認識が成功したi+j名分の人物が要注意人物であるかどうかの判定を行う。要注意人物の顔の特徴は予めデータベース36に登録されている。要注意人物を含む場合はS60に処理を進め、要注意人物を含まない場合はS62へ処理を進める。
S60(警告 or 追従照明)では、制御手段が、被写体である人物が要注意人物であることを表示手段37上に表示し、ユーザーに警告する。このとき、追従照明を持続させても良い。
S61(終了指示)では、制御手段が、ユーザーからの終了指示がnoの場合、警告の表示と追従照明の繰り返しを行う。終了指示がyesの場合には、S62へ進む。
S62(終了指示)では、制御手段が、ユーザーからの終了指示がnoの場合、S51〜S61の繰り返しを行う。ユーザーからの終了指示がyesの場合、追従照明を終了する。
本実施形態では被写体として人物の顔を用いるものについて説明したが、本実施形態の被写体はこれに限られるものではない。
例えば、人物全体、動物でもよい。あるいは、自動車などの機械を被写体として用いても良い。
本発明のような被写体追従照明は、写真撮影やビデオ撮影において被写体の特定部位の撮影画質を改善するという用途に用いられる。また、監視装置として用いる場合、人物の顔領域に照明を当て、その撮像画質を改善することで、人物の認識精度を向上させることが出来る。
また、上記第一の実施形態から第四の実施形態に係わる照明装置の一部もしくはすべての制御は、コンピュータ読取可能な記録媒体に格納されたコンピュータプログラムを読み込み実行するパーソナルコンピュータを用いて行うことが代替することが可能である。
第一の実施形態における照明装置の概略側面図を示したものである。 第一の実施形態における照明装置の概略上面図を示したものである。 第一の実施形態における任意位置照明装置10の構成を示した図である。 任意位置照明装置10の発光方式および詳細な構造を示す図である。 照射対象に対して照明を照射する具体的な方法を示した図である。 発光素子アレイ間に遮光部材を配置した状態を示す図である。 撮像手段20の上面図を示したものである。 要素レンズ11aと対応する発光アレイ部12を拡大表示したものである。 要素レンズ11aと対応する発光アレイ部12を拡大表示したものである。 要素レンズと発光素子アレイの発光強度の関係を示したものである。 第一の実施形態における照明装置の制御の方法を示すフローチャートである。 第一の実施形態における発光すべき発光素子の位置の算出方法を示した図である。 第一の実施形態における複数名の人物の顔を検出し、追従照明する場合のフローチャートである。 第二の実施形態における照明装置の概略図を示したものである。 第二の実施形態における任意位置照明装置10の概略図を示したものである。 第二の実施形態における発光素子アレイの発光位置を算出する式を説明する図である。 第二の実施形態における任意位置照明装置の集光・発散の状況を示した図である。 第二の実施形態における任意位置照明装置の変形例を示した図である。 第三の実施形態における照明装置の概略図を示したものである。 第四の実施形態における監視装置の概略構成図を示したものである。 第四の実施形態における1名の人物の監視を行う場合のフローチャートである。 第四の実施形態における複数名の人物の監視を行う場合のフローチャートである。
符号の説明
10 任意位置照明装置
11 マイクロレンズアレイ
12 発光素子アレイ
13 結像レンズ
20 撮像手段
25 奥行き推定手段
30 被写体位置検出手段
40 発光素子アレイ制御手段
50 被写体
60 基準平面

Claims (9)

  1. レンズと、当該レンズから所定の位置に配置された複数の発光素子とから構成される照明装置を制御する照明制御装置であって、
    照明対象の位置情報を取得する取得手段と、
    前記照明対象の位置情報に基づく前記レンズの中心と前記照明対象との位置関係から、前記複数の発光素子の発光を制御する制御手段とを有することを特徴とする照明制御装置。
  2. 前記照明対象を撮影する撮影手段を有し、
    前記取得手段は、前記撮影手段で撮影された前記照明対象の撮影画像に基づき、前記照明対象の位置情報を取得することを特徴とする請求項1に記載の照明制御装置。
  3. 前記照明対象の移動を検出する移動検出手段を有し、
    前記制御手段は、前記移動検出手段の検出結果に基づき、前記複数の発光素子の発光を制御することを特徴とする請求項1もしくは2のいずれかに記載の照明制御装置。
  4. 前記照明装置と前記被写体との距離を検出する距離検出手段を有し、
    前記制御手段は、前記距離検出手段により検出された距離に基づき、前記複数の発光素子の発光強度を調整することを特徴とする請求項1乃至3のいずれかに記載の照明制御装置。
  5. 前記照明装置は、複数のレンズを有し、前記複数の発光素子は当該複数のレンズの焦点位置に配置され、
    前記制御手段は、前記照明対象と前記複数のレンズそれぞれの中心とを通る直線を設定し、当該直線と交わる発光素子を発光させることを特徴とする請求項1乃至4のいずれかに記載の照明制御装置。
  6. 前記取得手段は、所定の特徴量に基づき、複数の照明対象から所定の照明対象の位置情報を取得し、
    前記制御手段は、前記取得手段が前記所定の照明対象の位置情報を取得した場合、前記所定の照明対象を照明するために発光すべき発光素子を発光させることを特徴とする請求項1乃至5のいずれかに記載の照明制御装置。
  7. レンズと、当該レンズから所定の位置に配置された複数の発光素子とから構成される照明装置を制御する照明制御方法であって、
    取得手段が、照明対象の位置情報を取得する取得手段と、
    制御手段が、前記照明対象の位置情報に基づく前記レンズの中心と前記照明対象との位置関係から、前記複数の発光素子の発光を制御する制御工程とを有することを特徴とする照明制御方法。
  8. コンピュータを、
    レンズと、当該レンズから所定の位置に配置された複数の発光素子とから構成される照明装置を制御する照明制御装置であって、
    照明対象の位置情報を取得する取得手段と、
    前記照明対象の位置情報に基づく前記レンズの中心と前記照明対象との位置関係から、前記複数の発光素子の発光を制御する制御手段とを有することを特徴とする照明制御装置として機能させるためのコンピュータプログラム。
  9. コンピュータを、
    レンズと、当該レンズから所定の位置に配置された複数の発光素子とから構成される照明装置を制御する照明制御装置であって、
    照明対象の位置情報を取得する取得手段と、
    前記照明対象の位置情報に基づく前記レンズの中心と前記照明対象との位置関係から、前記複数の発光素子の発光を制御する制御手段とを有することを特徴とする照明制御装置として機能させるためのコンピュータプログラムが格納されたコンピュータ読取り可能な記録媒体。
JP2008312375A 2008-12-08 2008-12-08 照明制御装置および方法 Pending JP2010134363A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008312375A JP2010134363A (ja) 2008-12-08 2008-12-08 照明制御装置および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008312375A JP2010134363A (ja) 2008-12-08 2008-12-08 照明制御装置および方法

Publications (1)

Publication Number Publication Date
JP2010134363A true JP2010134363A (ja) 2010-06-17

Family

ID=42345690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008312375A Pending JP2010134363A (ja) 2008-12-08 2008-12-08 照明制御装置および方法

Country Status (1)

Country Link
JP (1) JP2010134363A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013242441A (ja) * 2012-05-21 2013-12-05 Nikon Corp 撮像装置、及び照明光量決定方法
KR101470054B1 (ko) * 2011-06-08 2014-12-10 엘지이노텍 주식회사 조명 시스템 및 이를 이용한 조명 제어 방법
JP2014241160A (ja) * 2014-08-25 2014-12-25 カシオ計算機株式会社 光照射装置およびプログラム
DE102016116215A1 (de) 2015-09-04 2017-03-09 Panasonic Intellectual Property Management Co., Ltd. Beleuchtungsvorrichtung, Beleuchtungssystem und Programm
RU2657292C1 (ru) * 2017-01-09 2018-06-13 Федеральное государственное бюджетное учреждение науки Институт физики полупроводников им. А.В. Ржанова Сибирского отделения Российской академии наук (ИФП СО РАН) Способ активно-импульсного видения

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101470054B1 (ko) * 2011-06-08 2014-12-10 엘지이노텍 주식회사 조명 시스템 및 이를 이용한 조명 제어 방법
JP2013242441A (ja) * 2012-05-21 2013-12-05 Nikon Corp 撮像装置、及び照明光量決定方法
JP2014241160A (ja) * 2014-08-25 2014-12-25 カシオ計算機株式会社 光照射装置およびプログラム
DE102016116215A1 (de) 2015-09-04 2017-03-09 Panasonic Intellectual Property Management Co., Ltd. Beleuchtungsvorrichtung, Beleuchtungssystem und Programm
US10110865B2 (en) 2015-09-04 2018-10-23 Panasonic Intellectual Property Management Co., Ltd. Lighting device, lighting system, and program
RU2657292C1 (ru) * 2017-01-09 2018-06-13 Федеральное государственное бюджетное учреждение науки Институт физики полупроводников им. А.В. Ржанова Сибирского отделения Российской академии наук (ИФП СО РАН) Способ активно-импульсного видения

Similar Documents

Publication Publication Date Title
US9959478B2 (en) Method and system for biometric recognition
US9952047B2 (en) Method and measuring instrument for target detection and/or identification
US8433103B2 (en) Long distance multimodal biometric system and method
US8577093B2 (en) Long distance multimodal biometric system and method
JP4966284B2 (ja) 散乱光を使用して光ナビゲーションを実行するためのシステムおよび方法
US8953849B2 (en) Method and system for biometric recognition
US9336439B2 (en) System and method for the long range acquisition of iris images from stationary and mobile subjects
RU2616175C2 (ru) Определение расстояния до объекта по изображению
US20030108224A1 (en) Authentication object image-pickup method and device therefor
US20160170486A1 (en) Eye gaze imaging
KR20120057033A (ko) Iptv 제어를 위한 원거리 시선 추적 장치 및 방법
KR20070106709A (ko) 야간 감시를 위한 시스템 및 방법
US10771769B2 (en) Distance measuring apparatus, distance measuring method, and imaging apparatus
CN105359502B (zh) 追踪装置、追踪方法以及存储了追踪程序的非易失性存储介质
JP2001195582A (ja) 画像検出装置、画像検出方法、立体表示装置、表示コントローラ、立体表示システムおよびプログラム記憶媒体
JPWO2018042481A1 (ja) 撮影装置及び撮影方法
US20210006734A1 (en) Method and device for regulating imaging accuracy of motion-sensing camera
WO2009036103A1 (en) Long distance multimodal biometric system and method
CN108603997A (zh) 控制装置、控制方法和控制程序
JP2010134363A (ja) 照明制御装置および方法
JP5601179B2 (ja) 視線検出装置及び視線検出方法
US11882354B2 (en) System for acquisiting iris image for enlarging iris acquisition range
US20240127476A1 (en) Object determining apparatus, image pickup apparatus, and object determining method
JP2017138176A (ja) 三次元情報取得システム、三次元情報取得方法及びピッキングシステム
JP2007036436A (ja) 撮像装置、及びプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630