JP4416206B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP4416206B2
JP4416206B2 JP15336999A JP15336999A JP4416206B2 JP 4416206 B2 JP4416206 B2 JP 4416206B2 JP 15336999 A JP15336999 A JP 15336999A JP 15336999 A JP15336999 A JP 15336999A JP 4416206 B2 JP4416206 B2 JP 4416206B2
Authority
JP
Japan
Prior art keywords
light emission
image
illumination
light
image area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP15336999A
Other languages
Japanese (ja)
Other versions
JP2000338557A (en
Inventor
靖文 桑原
裕三 大浜
俊夫 星
浩行 桂井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Hitachi Ltd
Original Assignee
Secom Co Ltd
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd, Hitachi Ltd filed Critical Secom Co Ltd
Priority to JP15336999A priority Critical patent/JP4416206B2/en
Publication of JP2000338557A publication Critical patent/JP2000338557A/en
Application granted granted Critical
Publication of JP4416206B2 publication Critical patent/JP4416206B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、照明手段を備えた撮像装置に関し、特にその照明制御に関する。
【0002】
【従来の技術】
近年、工業用テレビカメラ(ITVカメラ)等の撮像装置を用いた監視装置が各所に設置され、侵入者検知や異常検知に威力を発揮している。そのような監視装置は、天井等に設置されたITVカメラにて監視対象領域の画像を取得する。現在においても、監視員が監視画像をモニタして異常等を検知するという形態の監視システムは存在するが、近年では画像認識装置を組み合わせて、監視画像中に現れる検知対象の像を自動的に検出する監視装置が開発されている。
【0003】
自動監視装置は、夜間や消灯された室内の監視に用いられることも多い。そのため、従来より、何らかの照明手段が付加された監視装置が存在する。この照明手段としては、一般には、寿命が長く、電気−光変換効率の良いLED(Light Emission Diode)が用いられる。ちなみに、LEDは個々の発光量が大きくないため、監視装置の照明手段としては複数のLEDが用いられ、それらは例えば監視用カメラの直近や監視用カメラと一体に、かつカメラの画角をカバーするように配置される。従来の監視装置は昼間や室内照明が点灯されているような明るい環境においては、画像の全体輝度からそれを検知し、自身でLEDをOFF状態とする一方、夜間や消灯された室内等の暗い環境においては、LEDをON状態として画像の輝度を確保している。
【0004】
【発明が解決しようとする課題】
従来は、上述のようにLEDの光量が小さいために複数のLEDが用いられていたが、それらは一律にON/OFFされるものであり、機能的には一つの照明手段であったといえる。
【0005】
さて、監視装置は設置場所も様々であるため、その撮影領域には様々な構造物が存在しうる。特にそれは室内において顕著である。例えば、通常の室内を考えると、柱、机、ロッカー、パーティション等の構造物が挙げられ、また監視装置は多くは天井に設置されるため天井部の出っ張り(例えば、蛍光灯、煙検知器等)も監視装置の画像に入りうる。これらの構造物と監視装置との距離、構造物の向き、反射率等に応じて、LEDから発せられた光のうちカメラに戻る光量は変化する。
【0006】
簡単な状況例としては、カメラ手前に構造物が存在する場合がある。この場合、手前に位置する構造物からの反射光が強くなる。そのため、画像上、構造物が映る領域は非常に明るく撮影されるが、構造物が存在せず奥の方が映る領域は暗く撮影される。
【0007】
また廊下のような細長い空間を監視する場合に、ダイナミックレンジが抑制された良好な画像を得るためには、奥行き方向に照射光を絞るのが好適であるのに対し、広い部屋を監視する場合には、満遍なく広く配光するのが好ましい。しかし、このような異なる状況には従来の監視装置に備えられる同一の照明手段では対応できなかった。
【0008】
上述した照明手段を備えた従来の監視装置では、それが使用される様々な状況の中に、適切な輝度分布の画像を得ることができない場合が存在するという問題があった。特に、撮影した画像を処理して物体の有無等を検出する場合には、監視装置の設置場所の状況の変化によって、得られる画像の輝度が変化し適切な監視を行えないことがあった。
【0009】
本発明は上記問題点を解消するためになされたもので、様々な使用状況下においても、視認、自動画像認識に好適な適切な輝度分布の画像が得られる撮像装置を提供することを目的とする。
【0010】
【課題を解決するための手段】
本発明に係る撮像装置は、撮影領域を照明する光源であって発光量を個別に制御可能な複数の照明手段と、前記照明手段のそれぞれを個別の発光量にて発光制御する光量制御手段と、前記撮影領域の画像を取得する撮像手段と、前記照明手段のそれぞれと当該照明手段の影響を受ける画像エリアの情報とを対応付けて記憶しているレスポンス記憶手段と、前記光量制御手段により着目する画像エリアに対応する前記照明手段の発光量を発光制御したときに前記着目する画像エリアの輝度分散値を求める処理を発光量を変えて複数回行い、前記画像エリアについて求められた輝度分散値とそれを求めたときの前記着目する画像エリアに対応する前記照明手段の発光量との関係を前記レスポンス記憶手段に記憶させる画像処理手段と、を含み、前記光量制御手段は、前記レスポンス記憶手段を参照して、前記照明手段について前記輝度分散値を最大とする発光量を決定し、当該決定された発光量にて前記着目する画像エリアと対応する前記照明手段の発光制御を行うものである。
【0011】
本発明によれば、画像処理手段が検知した輝度分布に基づいて、画像中の輝度を上げるべき部分や反対に輝度を下げるべき部分、またその所要輝度変化量といった制御目標を定めることができる。例えば、画像中の非常に明るい部分は輝度を下げるべきであると定められる。光量制御手段は、制御目標に従って複数の照明手段の発光量を個別に制御し、画像の輝度分布を所望の状態に近づける。
【0012】
本発明によれば、レスポンス記憶手段が、各照明手段の発光が画像のどの部分に影響を与えるか、またどの程度の影響を与えるかの情報を照明レスポンス関係として保持する。この照明レスポンス関係は、個々の照明手段ごとに定めることもできるし、いくつかの照明手段ごとに定めることもできる。反対に、画像の所定領域に影響を与える照明手段はどれであるか、またその影響度合いはそれぞれどの程度であるかといった関係として定めることもできる。光量制御手段は、この照明レスポンス関係に基づいて、輝度を制御すべき対象画像領域に関係する一又は二以上の照明手段を特定し、例えば当該照明手段の発光量を制御目標に応じ変化させる。また照明レスポンス関係がその照明手段の対象画像領域への影響の度合いの情報を有する場合には、光量制御手段は、それを考慮して当該照明手段の発光量の変動量を定めることもできる。
【0014】
本発明の好適な態様は、前記光量制御手段は、前記着目する画像エリアの輝度分散値を求める処理にて、前記着目する画像エリアに対応する前記照明手段の最大光量と最小光量を含む複数の発光量にて発光制御する
【0016】
【発明の実施の形態】
次に、本発明に係る撮像装置を侵入者監視装置に適用した実施形態について図面を参照して説明する。
【0017】
図1、図2は、本発明の侵入者監視装置に用いられる撮像装置の構造を説明する図である。図1は、カメラ基板2の上面図である。基板の中央部分には、CCDイメージセンサ等の固体撮像素子がマウントされ、さらにその上に取り付けられたカメラレンズ4によって、撮像素子の受光面に光学像が形成される。この撮像素子とカメラレンズとで構成される撮像部6の周囲の基板2上には複数のLED8が配列される。ここでは、撮像部6の左右にそれぞれ3行2列、合計12個のLED8(Lij,但しi=1〜3,j=1〜4)がマトリックス状にカメラ基板2に取り付けられる。
【0018】
これらLED8の上にはレンズアレイ10が取り付けられる。図2はレンズアレイ10を含んだカメラ基板2の模式的な断面図である。この図は、図1に示す線A−A’に沿った断面を表している。レンズアレイ10の各レンズはLED8に対応して設けられている。各レンズは平凸レンズであり、平らな端面側がLED8に向けられ、凸面が外側に向けられる。レンズはLED8から発せられる光をある程度の角度範囲内に集束させる。またレンズの端面をLED8に対して傾斜させることにより、LED8からの光の光軸11の向きを変えることができる。端面をLED8の配列の列方向に傾斜させることによって、例えば、上の1行に属する4つのLED8(L11〜L14)は、その光軸がカメラ基板2から撮影領域を見て上20°方向に向けられる。また中段、下段の各行のそれぞれ4つのLED8(L21〜L24、L31〜L34)は、それぞれ上10°方向、下10°方向に向けられる。同様に端面をLED8の配列の行方向に傾斜させることによって、LEDからの光の光軸をLED配列の行方向にて異ならせることができる。例えば、LED配列の各列の光軸の向きを、カメラ基板2に向かって左側の列から順に、カメラ基板2から撮影領域を見て右25°方向、右5°方向、左5°方向、左25°方向に向けることができる。
【0019】
このようにレンズアレイ10を用いて各LED8からの放射光を集束させる一方で、その光軸の向きを異ならせることにより、各LED8それぞれが撮影領域の異なる部分領域を照射するように構成することができる。なお、レンズアレイ10によって光軸を変更する構成は、LED8自体はカメラ基板2上に平らに同一の方向を向けて配置するだけでよいので、製造が容易である。
【0020】
本装置は、もっぱら天井に斜め下方に向けて取り付けられるものであるため、取り付け状態での装置高を抑制するといった観点から、LED8を撮像部6の左右に配置し、カメラ基板2の縦方向のサイズを抑制している。ここで、LED8を、撮像部6の両側に対称に配置する構成は、LED8を撮像部6の片側にのみ配置する構成より、撮影領域の左右の部分領域に対する照明条件を均一にしやすい。なお、原理的には、LED8は撮像部6の左右だけでなく、撮像部6を例えば「ロ」の字に取り囲むように配列してもよい。そのような構成は天井にカメラ基板2を平らに置いて直下領域を監視するような場合に、装置高の制約を受けず好適であろう。
【0021】
図3は、本装置により得られる画像20の模式図である。上述のように12個のLED8によってそれぞれ照らされる部分領域に対応して、画像内には12個の画像エリアが定義される。図において、画像エリア22の境界が点線で示されている。12個の画像エリア22(Aij,但しi=1〜3,j=1〜4)はLED8の配列に対応して、3行4列に並んでいる。ここで、便宜上、個々の画像エリア22を表すAijの添字は、対応するLED8を表すLijの添字と一致させている。ちなみに、ここに示す画像20には、室内とその室内に置かれた直方体形状の構造物24とが示されている。
【0022】
図4は、本発明に係る撮像装置を適用した監視装置30の概略のブロック構成図である。本装置において、動画を撮影可能な撮像部6と、各LED8及びLED8ごとの駆動回路で構成される12個のLED照明32とが上述のようにカメラ基板2上に一体に構成され、撮影領域に向けて配置される。
【0023】
撮像部6から出力される画像は、画像処理部34に入力される。画像処理部34は侵入者検知処理部36、輝度分布検知処理部38とを含む。侵入者検知処理部36は、入力された画像に対し画像認識処理を行い、侵入者を検出する処理を行うものであり、従来の処理を採用することができる。輝度分布検知処理部38は、入力された画像内の輝度分布を求める処理を行う。この輝度分布検知処理部38の処理結果は、後述するように光量制御部40で用いられる。輝度分布検知処理部38、光量制御部40は、レスポンス記憶部42に格納された照明レスポンス関係を用いて処理を行う。
【0024】
画像処理部34、光量制御部40は、例えば、中央処理ユニット(CPU:Central Processing Unit)を用いて構成することができる。レスポンス記憶部42はハードディスク装置等の磁気記録装置を用いることができるが、その他、RAM(Random Access Memory)等の半導体メモリを用いて処理の高速化を図ることもできる。
【0025】
レスポンス記憶部42には、画像のどの領域が各画像エリアに対応するかの情報(画像エリアAijの定義)、及び各画像エリアAijを照射するLED8(又はLED照明32)がどれか(画像エリアAijとLED8との対応関係)が予め格納されている。ここでは同じ添字を有するAijとLijとが対応づけられることが、後者の画像エリアAijとLED8との対応関係に相当する。
【0026】
輝度分布検知処理部38は、レスポンス記憶部42から得た画像エリアの定義情報に基づいて、画像データを画像エリアごとに区分し、各画像エリアの平均輝度、分散値を求める。
【0027】
光量制御部40は、輝度分布検知処理部38が求めた輝度分布情報に基づいて、各LED照明32の発光量を調整する。例えば、図3に示す例では、大部分が画像エリアA23に含まれる構造物24が存在する。ここでは、この構造物24が他の画像エリアに映る部屋の壁、床よりも監視装置30に近かったり、その反射率が高いといった理由で、画像エリアA23の輝度が他の画像エリアよりも非常に高くハレーションを起こしているとする。輝度分布検知処理部38が、画像エリアA23の輝度が高いことを検知すると、光量制御部40はレスポンス記憶部42に格納された照明レスポンス関係に基づいて、画像エリアA23を照らすLED照明32がL23であることを把握する。そして光量制御部40は、L23の発光量を低減させるように制御を行う。これにより、画像エリアA23のハレーションを抑制して、侵入者検知処理部36における画像認識処理に好適な画像を得ることができる。
【0028】
次に、本装置の照明自動制御処理をフロー図を用いて説明する。なお、この照明自動制御処理は、LED照明32が使用される状況、すなわち、夜間や室内照明をOFFとした状態にて実施するのが好適である。図5は、照明自動制御処理の第1の例を示すフロー図である。本処理は、各画像エリアごとに最適な発光条件を決定するものであり、最適条件の決定処理がまだ行われていない画像エリアを一つずつ選択して(S50)、当該決定処理を行う。決定処理の対象として選択された画像エリアに対応するLED照明32だけを最大光量で発光させ、残りのLED照明32はOFF状態とされる(S52)。具体的には光量制御部40が、レスポンス記憶部42に格納された照明レスポンス関係を検索して、処理対象画像エリアに対応するLED照明32を認識し、当該LED照明32のみを発光させる。
【0029】
輝度に関して視認、画像認識に不適当な画像の特徴として、輝度が強すぎてハレーションを起こしたり、光量不足で真っ暗であったりするコントラストの低い、いわゆる“つぶれた”状態が挙げられる。ここでは、最適発光状態の判定指標として画像エリア内での輝度分散値を用い、良好なコントラストを実現する発光条件を求める。そのために、輝度分布検知処理部38は、撮像部6からの画像データに基づいて、処理対象の画像エリアの輝度分散値を算出し、その値を記録する(S54)。処理S54は、対象とするLED照明32の発光量が最低となるまで(S56)、発光量を一定値ずつ低減させながら(S58)繰り返される。
【0030】
対象とする画像エリアに関して、発光量が最大の状態から最小の状態まで変化させる処理が完了すると(S56)、その発光量の各レベルにおいて記録された輝度分散値をサーチして、輝度分散値を最大とする発光レベルが選択される。この輝度分散値を最大とする発光条件が、当該画像エリアに関する最適な発光条件として決定される(S60)。このようにして一つの画像エリアに関する処理が完了すると、まだ処理が完了していない画像エリアがあるかどうかが調べられ(S62)、あれば処理S50に戻る。一方、全ての画像エリアに関して最適な発光条件が決定されると本照明自動制御処理は終了する。
【0031】
ちなみに処理S58にて、発光量を一定値ずつ低減する場合には、その一定値を最大光量の10%といった値に設定することができる。
【0032】
なお、上述の処理では、最適状態の判定指標として輝度分散値を用いたが、画像エリア内での平均輝度を判定指標として用いることもできる。白飛びや黒くつぶれるといった不適切な輝度を有する部分においては、画像データはそれぞれ許容されるデータレンジの最大値、最小値か、それに近い値を取る。そこで、背景に侵入者等の検知対象物が現れても、そのような不適当な輝度状態を生じないために、背景を構成する画像エリアの平均輝度が、例えばデータレンジの大体、中央に位置するように照明条件を定めることができる。その目標とする輝度レベルUTは、例えば、撮像部6から得られる画像が256階調を有するデジタルデータである場合には、その中間輝度値128に設定することができる。また、画像がNTSCアナログ信号であれば、0.7Vp-pに対する中間値0.35Vとすることができる。
【0033】
また、輝度分散値と平均輝度との両方を判定指標として用いることもできる。例えば、平均輝度が所定のデータレンジのセンタ付近の所定範囲内にあるという条件と、輝度分散値が最大となるという条件との両方が満たされるように各画像エリアの発光条件を定めることができる。
【0034】
図6は、照明自動制御処理の第2の例を示すフロー図である。処理が起動されると、初期状態として、全てのLED照明32が最大光量で発光される(S100)。以降の処理S102〜108は、繰り返し実行され、好適な照明条件の探索が行われる。
【0035】
輝度分布検知処理部38は、撮像部6からの画像データに基づいて各画像エリア22それぞれの平均輝度を算出する(S102)。光量制御部40は、予め設定された目標輝度UTと各画像エリアの輝度Uijとを比較し、UTより高い輝度を有する画像エリアである高輝度エリアを選択する(S104)。
【0036】
光量制御部40は、レスポンス記憶部42に格納された照明レスポンス関係を検索して、各高輝度エリアに対応するLED照明32を特定する。特定されたLED照明32の中にその発光量が最低値に達していないものがあれば(S106)、その最低値に達していないLED照明32の発光量を所定量だけ低減する(S108)。この低減量は各LED照明32によらず一定の値とすることができる。また、適当な比例係数α(>0)を用いて各画像エリアAijの発光低減量をα(Uij−UT)によって定めることもできる。なお、処理S106において既に発光量が最低値に達していると判断されたLED照明32に対しては発光量の低減は行わないこととする。
【0037】
このように高輝度エリアに対応するLED照明32の発光量を低減させた状態で処理S102に戻る。この状態で得られる画像に基づいて同様に高輝度エリアを検知し、対応するLED照明32の発光量を低減する処理を反復することにより、基本的に各画像エリアの輝度は目標輝度に近づき、画像全体の輝度分布の一様化、すなわち輝度のダイナミックレンジの抑制が図られる。
【0038】
なお、処理S104において、高輝度エリアが存在しないと判定された場合は、全ての画像エリアの輝度がほぼ目標とする状態に達したことを意味し、この場合には得られた各LED照明32の発光条件を保存し照明自動制御処理を終了する。以降、夜間等、LED照明32を発光させて監視処理を行う場合には、この保存された発光条件にてそれぞれのLED照明32が発光される。
【0039】
一方、処理S106において、高輝度エリアが存在するがそれに対応するLED照明32の発光量が既に最低値である場合には、処理を続行することが不可能なので処理を終了する。この場合に得られる発光条件は、調整未了ではあるが装置が設置された状況での可能な好適条件であると考えられる。よって、この場合に、調整未了であるとして監視者に通知するか、またはその発光条件を用いて監視処理を開始するかのいずれを選択するかは任意である。
【0040】
なお、ここで説明した処理は、光量最大の状態からスタートし、画像エリアの輝度が目標輝度に近づくように、LED照明32の発光量を低減させる処理であった。しかし、反対に、光量最低の状態からスタートし、目標輝度に向けてLED照明32の発光量を増加させる処理を採用することもできる。
【0041】
上述した照明自動制御処理を行うことにより、侵入者検知に好適な背景画像が得られる。よって、少なくとも本監視装置を設置し、監視処理の運用を開始する前に、本照明自動制御処理を実施することが望ましい。しかし、運用開始後においても、背景を構成する配置物のレイアウト変更等の状況変化に対応することができるように、適宜、本照明自動制御処理を行うことが望ましい。
【0042】
上述の構成で用いた照明レスポンス関係は、画像エリア22とLED照明32とが一対一の対応関係を有するものであった。しかし、画像エリアの設定の仕方やLED照明32の構成によっては、隣接するLED照明32からのそれぞれの光が共通の画像領域を照射する場合がある。そのような場合には、照明レスポンス関係は、画像エリア22とLED照明32との多対一、又は一対多の対応関係として定義することができる。これらの関係を、上述した画像エリアの配列AijとLEDの配列Lijとを用いて具体的に説明する。まず多対一の関係とは、例えばL22から発した光がA22にのみならずその周囲のA11、A12、A13、A23、A33、A32、A31、A21にも達することを表すものである。よって、一つのLijに対し複数のAijが対応付けられる。なお、このとき、これら複数のAijのそれぞれへのLijの影響の度合い、すなわち重み付けの情報を照明レスポンス関係に含めて定義することもできる。例えば、L22から発した光の影響は、A22を基準値1として、その上下左右の画像エリアA12、A23、A32、A21において0.3、対角線上に位置する画像エリアA11、A13、A33、A31において0.1であるといった照明レスポンス関係を定義することができる。
【0043】
一対多の関係も多対一と同様であるが、念のため同様に例を用いて説明すれば、例えばA22に影響を与える照明がL22にのみならずその周囲のL11、L12、L13、L23、L33、L32、L31、L21も当該エリアA22に影響を与えることを表すものである。よって、一つのAijに対し複数のLijが対応付けられる。なお、このときも重み付け情報を照明レスポンス関係に含めて定義することができる。例えば、A22に及ぼされる影響は、L22からの影響を基準値1として、その上下左右の照明L12、L23、L32、L21からは0.3、対角線上に位置する照明L11、L13、L33、L31から0.1であるといった照明レスポンス関係を定義することができる。
【0044】
【発明の効果】
本発明に係る撮像装置によれば、撮影領域に存在する構造物等の相違に起因する画像内の輝度の変動幅が抑制され、人間による視認、自動監視における画像認識処理に好適な画像が得られる効果がある。
【図面の簡単な説明】
【図1】 本装置を構成するカメラ基板の模式的な上面図である。
【図2】 レンズアレイを含んだカメラ基板の模式的な断面図である。
【図3】 本装置により得られる画像の模式図である。
【図4】 本発明に係る撮像装置を適用した監視装置の概略のブロック構成図である。
【図5】 照明自動制御処理の第1の例を示すフロー図である。
【図6】 照明自動制御処理の第2の例を示すフロー図である。
【符号の説明】
2 カメラ基板、4 カメラレンズ、6 撮像部、8 LED、10 レンズアレイ、30 監視装置、32 LED照明、34 画像処理部、36 侵入者検知処理部、38 輝度分布検知処理部、40 光量制御部、42 レスポンス記憶部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an imaging apparatus provided with illumination means, and more particularly to illumination control thereof.
[0002]
[Prior art]
In recent years, monitoring devices using an imaging device such as an industrial television camera (ITV camera) have been installed in various places, and are effective for intruder detection and abnormality detection. Such a monitoring apparatus acquires an image of a monitoring target area with an ITV camera installed on a ceiling or the like. Even now, there are monitoring systems in which a monitoring person monitors a monitoring image to detect an abnormality or the like, but in recent years, an image recognition device is combined to automatically detect an image of a detection target appearing in the monitoring image. Monitoring devices to detect have been developed.
[0003]
The automatic monitoring device is often used for monitoring a room at night or turned off. For this reason, there has conventionally been a monitoring device to which some sort of lighting means is added. As this illuminating means, generally, an LED (Light Emission Diode) having a long life and good electro-optical conversion efficiency is used. By the way, since each LED does not emit a large amount of light, a plurality of LEDs are used as the illumination means of the monitoring device, and they cover the angle of view of the camera, for example, in the immediate vicinity of the monitoring camera or with the monitoring camera. To be arranged. In a bright environment where the conventional monitoring device is turned on in the daytime or indoor lighting, it is detected from the overall brightness of the image and the LED is turned off by itself, while it is dark at night or when the room is turned off. In the environment, the brightness of the image is secured by turning on the LED.
[0004]
[Problems to be solved by the invention]
Conventionally, a plurality of LEDs have been used because the light quantity of the LEDs is small as described above, but they are uniformly turned ON / OFF, and it can be said that they are functionally one illumination means.
[0005]
Now, since the monitoring apparatus has various installation locations, various structures can exist in the imaging region. This is particularly noticeable indoors. For example, considering a normal room, there are structures such as pillars, desks, lockers, partitions, etc., and many monitoring devices are installed on the ceiling, so that the protruding parts of the ceiling (for example, fluorescent lights, smoke detectors, etc.) ) Can also enter the image of the monitoring device. Depending on the distance between these structures and the monitoring device, the direction of the structures, the reflectance, etc., the amount of light emitted from the LEDs returns to the camera changes.
[0006]
As an example of a simple situation, there may be a structure in front of the camera. In this case, the reflected light from the structure located in front becomes stronger. For this reason, on the image, the region where the structure is reflected is photographed very brightly, but the region where the structure is not present and the rear is reflected is photographed darkly.
[0007]
When monitoring a long and narrow space such as a corridor, in order to obtain a good image with a reduced dynamic range, it is preferable to focus the irradiation light in the depth direction, while monitoring a large room. It is preferable that the light distribution is even and wide. However, such different situations cannot be handled by the same illumination means provided in the conventional monitoring device.
[0008]
In the conventional monitoring apparatus provided with the illumination means described above, there is a problem that there are cases where an image having an appropriate luminance distribution cannot be obtained in various situations in which it is used. In particular, when a captured image is processed to detect the presence or absence of an object, the brightness of the obtained image may change due to a change in the situation of the installation location of the monitoring device, and appropriate monitoring may not be performed.
[0009]
The present invention has been made to solve the above problems, and an object thereof is to provide an imaging apparatus capable of obtaining an image with an appropriate luminance distribution suitable for visual recognition and automatic image recognition even under various usage conditions. To do.
[0010]
[Means for Solving the Problems]
An image pickup apparatus according to the present invention is a light source that illuminates a photographing region, and a plurality of illuminating means capable of individually controlling a light emission amount, and a light amount control means for controlling light emission of each of the illumination means with an individual light emission amount, The imaging means for acquiring the image of the photographing area, the response storage means for storing the illumination means and the information on the image area affected by the illumination means in association with each other, and the light quantity control means The luminance dispersion value obtained for the image area is obtained by performing a process for obtaining the luminance dispersion value of the image area of interest when the light emission amount of the illuminating unit corresponding to the image area to be emitted is controlled. and wherein the image processing means to be stored before the sharp Suponsu storage means the relationship between the light emission amount of the illumination means corresponding to the image area of the focus when asked for it, before The light quantity control means refers to the response storage means, determines a light emission amount that maximizes the luminance dispersion value for the illumination means, and the illumination corresponding to the image area of interest with the determined light emission amount The light emission control of the means is performed.
[0011]
According to the present invention, based on the luminance distribution detected by the image processing means, it is possible to determine a control target such as a portion in the image where the luminance should be increased, a portion where the luminance should be decreased, and a required luminance change amount. For example, it is determined that the brightness of an extremely bright part in the image should be lowered. The light quantity control unit individually controls the light emission amounts of the plurality of illumination units according to the control target, and brings the luminance distribution of the image close to a desired state.
[0012]
According to the present invention, the response storage means holds information as to which part of the image the light emission of each lighting means affects and how much it influences as an illumination response relationship. This illumination response relationship can be determined for each individual illumination means, or for each of several illumination means. On the other hand, it can be determined as a relationship such as which illumination means influences a predetermined area of an image and how much the influence degree is. Based on the illumination response relationship, the light amount control unit identifies one or more illumination units related to the target image region whose luminance is to be controlled, and changes the light emission amount of the illumination unit according to the control target, for example. In addition, when the illumination response relationship includes information on the degree of influence of the illumination unit on the target image area, the light amount control unit can determine the variation amount of the light emission amount of the illumination unit in consideration thereof.
[0014]
In a preferred aspect of the present invention, the light amount control unit includes a plurality of light amounts including a maximum light amount and a minimum light amount of the illumination unit corresponding to the image area of interest in the process of obtaining a luminance dispersion value of the image area of interest . The light emission is controlled by the light emission amount .
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Next, an embodiment in which an imaging apparatus according to the present invention is applied to an intruder monitoring apparatus will be described with reference to the drawings.
[0017]
1 and 2 are diagrams illustrating the structure of an imaging device used in the intruder monitoring device of the present invention. FIG. 1 is a top view of the camera substrate 2. A solid-state image sensor such as a CCD image sensor is mounted on the central portion of the substrate, and an optical image is formed on the light receiving surface of the image sensor by a camera lens 4 mounted thereon. A plurality of LEDs 8 are arranged on the substrate 2 around the imaging unit 6 constituted by the imaging element and the camera lens. Here, a total of twelve LEDs 8 (L ij , where i = 1 to 3, j = 1 to 4) are attached to the camera substrate 2 in a matrix form on each of the left and right sides of the imaging unit 6.
[0018]
A lens array 10 is mounted on these LEDs 8. FIG. 2 is a schematic cross-sectional view of the camera substrate 2 including the lens array 10. This figure shows a cross section along the line AA 'shown in FIG. Each lens of the lens array 10 is provided corresponding to the LED 8. Each lens is a plano-convex lens, and the flat end surface is directed to the LED 8 and the convex surface is directed outward. The lens focuses the light emitted from the LED 8 within a certain angle range. Further, the direction of the optical axis 11 of the light from the LED 8 can be changed by inclining the end face of the lens with respect to the LED 8. By tilting the end face in the column direction of the array of the LEDs 8, for example, the four LEDs 8 (L 11 to L 14 ) belonging to the upper row have an optical axis that is 20 ° higher when the imaging region is viewed from the camera substrate 2. Directed in the direction. The four LEDs 8 (L 21 to L 24 , L 31 to L 34 ) in the middle and lower rows are respectively directed in the upper 10 ° direction and the lower 10 ° direction. Similarly, by tilting the end face in the row direction of the LED 8 array, the optical axis of the light from the LED can be made different in the row direction of the LED array. For example, the direction of the optical axis of each column of the LED array is in the order of 25 ° to the right, 5 ° to the right, and 5 ° to the left when viewing the imaging region from the camera substrate 2 in order from the left column toward the camera substrate 2. It can be directed to the left 25 ° direction.
[0019]
In this way, while the emitted light from each LED 8 is focused using the lens array 10, the direction of the optical axis is made different so that each LED 8 irradiates a different partial region of the imaging region. Can do. The configuration in which the optical axis is changed by the lens array 10 is easy to manufacture because the LED 8 itself only needs to be arranged flat on the camera substrate 2 in the same direction.
[0020]
Since this apparatus is exclusively attached to the ceiling obliquely downward, the LED 8 is arranged on the left and right of the imaging unit 6 from the viewpoint of suppressing the apparatus height in the attached state, and the vertical direction of the camera substrate 2 is set. The size is suppressed. Here, the configuration in which the LEDs 8 are arranged symmetrically on both sides of the imaging unit 6 makes it easier to make the illumination conditions for the left and right partial regions of the imaging region uniform than the configuration in which the LEDs 8 are arranged only on one side of the imaging unit 6. In principle, the LEDs 8 may be arranged so as to surround not only the left and right sides of the image pickup unit 6 but also the image pickup unit 6 in, for example, a letter “B”. Such a configuration would be preferable without being restricted by the height of the apparatus when the camera substrate 2 is placed flat on the ceiling and the area directly underneath is monitored.
[0021]
FIG. 3 is a schematic diagram of an image 20 obtained by the present apparatus. As described above, 12 image areas are defined in the image corresponding to the partial areas respectively illuminated by the 12 LEDs 8. In the figure, the boundary of the image area 22 is indicated by a dotted line. Twelve image areas 22 (A ij , where i = 1 to 3, j = 1 to 4) are arranged in 3 rows and 4 columns corresponding to the arrangement of the LEDs 8. Here, for the sake of convenience, the suffix of A ij representing each image area 22 is made to coincide with the suffix of L ij representing the corresponding LED 8. Incidentally, the image 20 shown here shows a room and a rectangular parallelepiped structure 24 placed in the room.
[0022]
FIG. 4 is a schematic block diagram of a monitoring device 30 to which the imaging device according to the present invention is applied. In this apparatus, the imaging unit 6 capable of shooting a moving image and the 12 LED lights 32 configured by the respective LEDs 8 and the drive circuit for each LED 8 are integrally configured on the camera substrate 2 as described above, and the imaging region It is arranged toward.
[0023]
An image output from the imaging unit 6 is input to the image processing unit 34. The image processing unit 34 includes an intruder detection processing unit 36 and a luminance distribution detection processing unit 38. The intruder detection processing unit 36 performs an image recognition process on the input image to detect an intruder, and can adopt a conventional process. The luminance distribution detection processing unit 38 performs processing for obtaining the luminance distribution in the input image. The processing result of the luminance distribution detection processing unit 38 is used by the light amount control unit 40 as described later. The luminance distribution detection processing unit 38 and the light amount control unit 40 perform processing using the illumination response relationship stored in the response storage unit 42.
[0024]
The image processing unit 34 and the light amount control unit 40 can be configured using, for example, a central processing unit (CPU). The response storage unit 42 can use a magnetic recording device such as a hard disk device, but can also increase the processing speed by using a semiconductor memory such as a RAM (Random Access Memory).
[0025]
In the response storage unit 42, which region of the image corresponds to each image area (definition of the image area A ij ), and which LED 8 (or LED illumination 32) irradiates each image area A ij ( The correspondence relationship between the image area A ij and the LED 8) is stored in advance. Here, the correspondence between A ij and L ij having the same subscript corresponds to the correspondence between the latter image area A ij and the LED 8.
[0026]
The luminance distribution detection processing unit 38 classifies the image data for each image area based on the definition information of the image area obtained from the response storage unit 42, and obtains the average luminance and the variance value of each image area.
[0027]
The light quantity control unit 40 adjusts the light emission amount of each LED illumination 32 based on the luminance distribution information obtained by the luminance distribution detection processing unit 38. For example, in the example shown in FIG. 3, there is a structure 24 which is largely contained in the image area A 23. Here, the luminance of the image area A 23 is higher than that of the other image areas because the structure 24 is closer to the monitoring device 30 than the walls and floors of the room reflected in the other image areas and the reflectance thereof is higher. Suppose that halation is very high. When the luminance distribution detection processing unit 38 detects that the luminance of the image area A 23 is high, the light quantity control unit 40 illuminates the image area A 23 based on the illumination response relationship stored in the response storage unit 42. but to understand that it is the L 23. The light amount control unit 40 performs control so as to reduce the emission amount of L 23. Thereby, the halation of the image area A 23 can be suppressed, and an image suitable for the image recognition processing in the intruder detection processing unit 36 can be obtained.
[0028]
Next, the automatic lighting control processing of the present apparatus will be described using a flowchart. Note that this automatic lighting control process is preferably performed in a situation where the LED lighting 32 is used, that is, in a state where night lighting or indoor lighting is turned off. FIG. 5 is a flowchart showing a first example of the illumination automatic control process. In this process, the optimum light emission condition is determined for each image area. Image areas for which the optimum condition determination process has not yet been performed are selected one by one (S50), and the determination process is performed. Only the LED illumination 32 corresponding to the image area selected as the determination process target is caused to emit light with the maximum light amount, and the remaining LED illumination 32 is turned off (S52). Specifically, the light quantity control unit 40 searches the illumination response relationship stored in the response storage unit 42, recognizes the LED illumination 32 corresponding to the processing target image area, and causes only the LED illumination 32 to emit light.
[0029]
A characteristic of an image that is inappropriate for visual recognition and image recognition with respect to luminance is a so-called “collapsed” state in which the luminance is too strong to cause halation, or the image is dark due to insufficient light quantity, and has a low contrast. Here, the luminance dispersion value in the image area is used as an index for determining the optimum light emission state, and the light emission condition for realizing good contrast is obtained. Therefore, the luminance distribution detection processing unit 38 calculates the luminance variance value of the image area to be processed based on the image data from the imaging unit 6, and records the value (S54). Process S54 is repeated while reducing the light emission amount by a certain value (S58) until the light emission amount of the target LED illumination 32 becomes the minimum (S56).
[0030]
When the process of changing the light emission amount from the maximum state to the minimum state is completed for the target image area (S56), the luminance dispersion value recorded at each level of the light emission amount is searched to obtain the luminance dispersion value. The maximum emission level is selected. The light emission condition that maximizes the luminance dispersion value is determined as the optimum light emission condition for the image area (S60). When the process for one image area is completed in this way, it is checked whether there is an image area that has not been processed yet (S62), and if there is, the process returns to process S50. On the other hand, when the optimum light emission conditions are determined for all image areas, the automatic illumination control process ends.
[0031]
Incidentally, when the light emission amount is reduced by a certain value in the process S58, the constant value can be set to a value such as 10% of the maximum light amount.
[0032]
In the above-described processing, the luminance dispersion value is used as the determination index for the optimum state. However, the average luminance within the image area can also be used as the determination index. In a portion having an inappropriate luminance such as overexposure or blackening, the image data takes the maximum value, the minimum value, or a value close to the allowable data range. Therefore, even if a detection object such as an intruder appears in the background, such an inappropriate luminance state does not occur. Therefore, the average luminance of the image area constituting the background is, for example, approximately in the center of the data range. Lighting conditions can be determined as follows. Luminance level U T to its target, for example, when the image obtained from the imaging unit 6 is a digital data having 256 gradations can be set to an intermediate luminance value 128. If the image is an NTSC analog signal, the intermediate value can be set to 0.35V with respect to 0.7Vp-p.
[0033]
Further, both the luminance dispersion value and the average luminance can be used as a determination index. For example, the light emission condition for each image area can be determined so that both the condition that the average luminance is within a predetermined range near the center of the predetermined data range and the condition that the luminance dispersion value is maximized are satisfied. .
[0034]
FIG. 6 is a flowchart showing a second example of the illumination automatic control process. When the process is started, as an initial state, all LED lights 32 emit light with the maximum light amount (S100). The subsequent processes S102 to S108 are repeatedly executed to search for suitable illumination conditions.
[0035]
The luminance distribution detection processing unit 38 calculates the average luminance of each image area 22 based on the image data from the imaging unit 6 (S102). The light quantity control unit 40 compares the target luminance U T set in advance with the luminance U ij of each image area, and selects a high luminance area which is an image area having a luminance higher than U T (S104).
[0036]
The light quantity control unit 40 searches the illumination response relationship stored in the response storage unit 42 and identifies the LED illumination 32 corresponding to each high-luminance area. If any of the identified LED lights 32 does not reach the minimum value (S106), the LED light 32 that does not reach the minimum value is reduced by a predetermined amount (S108). This reduction amount can be set to a constant value regardless of each LED illumination 32. Further, the amount of light emission reduction of each image area A ij can be determined by α (U ij −U T ) using an appropriate proportionality coefficient α (> 0). It should be noted that the amount of light emission is not reduced for the LED illumination 32 that has already been determined to have reached the minimum value in step S106.
[0037]
In this manner, the process returns to step S102 in a state where the light emission amount of the LED illumination 32 corresponding to the high luminance area is reduced. Similarly, by detecting the high luminance area based on the image obtained in this state and repeating the process of reducing the light emission amount of the corresponding LED illumination 32, the luminance of each image area basically approaches the target luminance, The luminance distribution of the entire image is made uniform, that is, the luminance dynamic range is suppressed.
[0038]
If it is determined in step S104 that there is no high-luminance area, it means that the luminance of all the image areas has almost reached the target state. In this case, each LED illumination 32 obtained is obtained. The light emission conditions are saved and the automatic lighting control process is terminated. Thereafter, when performing the monitoring process by causing the LED illumination 32 to emit light at night or the like, each LED illumination 32 emits light under the stored light emission conditions.
[0039]
On the other hand, if there is a high-luminance area in process S106 but the light emission amount of the LED illumination 32 corresponding to the high-luminance area is already the minimum value, the process is terminated because the process cannot be continued. The light emission condition obtained in this case is considered to be a preferable condition that can be obtained in a situation where the apparatus is installed although the adjustment has not been completed. Therefore, in this case, it is optional to notify the monitor that the adjustment has not been completed or to start the monitoring process using the light emission condition.
[0040]
The process described here is a process of starting from the state where the light quantity is maximum and reducing the light emission amount of the LED illumination 32 so that the brightness of the image area approaches the target brightness. However, on the contrary, it is also possible to employ a process of starting from a state where the light quantity is minimum and increasing the light emission amount of the LED illumination 32 toward the target luminance.
[0041]
By performing the illumination automatic control process described above, a background image suitable for intruder detection can be obtained. Therefore, it is desirable to implement the automatic lighting control process at least before installing the monitoring apparatus and starting the monitoring process. However, it is desirable that the automatic lighting control process is appropriately performed so as to be able to cope with a change in the situation such as a layout change of an arrangement object constituting the background even after the operation is started.
[0042]
The illumination response relationship used in the above-described configuration is that the image area 22 and the LED illumination 32 have a one-to-one correspondence relationship. However, depending on the setting method of the image area and the configuration of the LED illumination 32, each light from the adjacent LED illumination 32 may irradiate a common image area. In such a case, the illumination response relationship can be defined as a many-to-one correspondence relationship between the image area 22 and the LED illumination 32, or a one-to-many correspondence relationship. These relationships will be specifically described using the above-described image area array A ij and LED array L ij . First, the many-to-one relationship is, for example, that light emitted from L 22 is not only A 22 but also A 11 , A 12 , A 13 , A 23 , A 33 , A 32 , A 31 , A 21 around it. It also represents reaching. Therefore, a plurality of A ij is associated with one L ij . At this time, the degree of influence of L ij on each of the plurality of A ijs , that is, weighting information, can be included in the illumination response relationship. For example, the influence of the light emitted from L 22 is 0.3 in the upper, lower, left, and right image areas A 12 , A 23 , A 32 , and A 21 with A 22 as the reference value 1, and the image area A located on the diagonal line 11 , A 13 , A 33 , and A 31 can be defined such that the illumination response relationship is 0.1.
[0043]
The one-to-many relationship is also the same as the many-to-one relationship. However, if it is described using an example just in case, for example, the illumination that affects A 22 is not only L 22 but also the surrounding L 11 , L 12 , L 13 , L 23 , L 33 , L 32 , L 31 , and L 21 also indicate that the area A 22 is affected. Therefore, a plurality of L ij is associated with one A ij . At this time, the weighting information can be defined by including it in the illumination response relationship. For example, the influence exerted on A 22 is 0.3 from the illumination L 12 , L 23 , L 32 , and L 21 of the upper, lower, left and right illuminations L, and the illumination L located on the diagonal line with the influence from L 22 as the reference value 1. Illumination response relationships such as 11 , L 13 , L 33 , and L 31 to 0.1 can be defined.
[0044]
【The invention's effect】
According to the imaging apparatus of the present invention, the fluctuation range of the luminance in the image due to the difference in the structure or the like existing in the imaging region is suppressed, and an image suitable for image recognition processing in human visual recognition and automatic monitoring is obtained. There is an effect.
[Brief description of the drawings]
FIG. 1 is a schematic top view of a camera substrate constituting the apparatus.
FIG. 2 is a schematic cross-sectional view of a camera substrate including a lens array.
FIG. 3 is a schematic diagram of an image obtained by the apparatus.
FIG. 4 is a schematic block diagram of a monitoring apparatus to which an imaging apparatus according to the present invention is applied.
FIG. 5 is a flowchart showing a first example of illumination automatic control processing.
FIG. 6 is a flowchart showing a second example of the illumination automatic control process.
[Explanation of symbols]
2 camera substrate, 4 camera lens, 6 imaging unit, 8 LED, 10 lens array, 30 monitoring device, 32 LED illumination, 34 image processing unit, 36 intruder detection processing unit, 38 luminance distribution detection processing unit, 40 light quantity control unit 42 Response storage unit.

Claims (2)

撮影領域を照明する光源であって発光量を個別に制御可能な複数の照明手段と、
前記照明手段のそれぞれを個別の発光量にて発光制御する光量制御手段と、
前記撮影領域の画像を取得する撮像手段と、
前記照明手段のそれぞれと当該照明手段の影響を受ける画像エリアの情報とを対応付けて記憶しているレスポンス記憶手段と、
前記光量制御手段により着目する画像エリアに対応する前記照明手段の発光量を発光制御したときに前記着目する画像エリアの輝度分散値を求める処理を発光量を変えて複数回行い、前記画像エリアについて求められた輝度分散値とそれを求めたときの前記着目する画像エリアに対応する前記照明手段の発光量との関係を前記レスポンス記憶手段に記憶させる画像処理手段と、
を含み、
前記光量制御手段は、前記レスポンス記憶手段を参照して、前記照明手段について前記輝度分散値を最大とする発光量を決定し、当該決定された発光量にて前記着目する画像エリアと対応する前記照明手段の発光制御を行うことを特徴とする撮像装置。
A plurality of illumination means which are light sources for illuminating the imaging region and capable of individually controlling the light emission amount;
A light amount control means for controlling light emission with an individual light emission amount for each of the illumination means;
Imaging means for acquiring an image of the imaging area;
Response storage means for storing each of the illumination means and information of an image area affected by the illumination means in association with each other;
When the light emission control of the illumination unit corresponding to the image area of interest is controlled by the light amount control unit, a process for obtaining a luminance dispersion value of the image area of interest is performed a plurality of times while changing the amount of light emission. an image processing means for storing prior crisp Suponsu storage means the relationship between the light emission amount of the illumination means corresponding to the luminance variance value obtained image area of the focus when asked for it,
Including
The light amount control means refers to the response storage means, determines a light emission amount that maximizes the luminance dispersion value for the illumination means, and corresponds to the image area of interest by the determined light emission amount. An image pickup apparatus that performs light emission control of an illumination unit.
請求項1記載の撮像装置において、
前記光量制御手段は、前記着目する画像エリアの輝度分散値を求める処理にて、前記着目する画像エリアに対応する前記照明手段の最大光量と最小光量を含む複数の発光量にて発光制御すること、
を特徴とする撮像装置。
The imaging device according to claim 1,
The light amount control unit performs light emission control with a plurality of light emission amounts including a maximum light amount and a minimum light amount of the illumination unit corresponding to the image area of interest in a process of obtaining a luminance dispersion value of the image area of interest. ,
An imaging apparatus characterized by the above.
JP15336999A 1999-06-01 1999-06-01 Imaging device Expired - Fee Related JP4416206B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15336999A JP4416206B2 (en) 1999-06-01 1999-06-01 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15336999A JP4416206B2 (en) 1999-06-01 1999-06-01 Imaging device

Publications (2)

Publication Number Publication Date
JP2000338557A JP2000338557A (en) 2000-12-08
JP4416206B2 true JP4416206B2 (en) 2010-02-17

Family

ID=15560957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15336999A Expired - Fee Related JP4416206B2 (en) 1999-06-01 1999-06-01 Imaging device

Country Status (1)

Country Link
JP (1) JP4416206B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10142554B2 (en) 2016-08-24 2018-11-27 Samsung Electronics Co., Ltd. Electronic device including light-emitting elements and method of operating electronic device

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4091942B2 (en) 2003-03-31 2008-05-28 富士通株式会社 Lighting control device
JP2005114924A (en) * 2003-10-06 2005-04-28 Pentax Corp Illuminator for photography
JP4530719B2 (en) * 2004-05-21 2010-08-25 Hoya株式会社 Lighting device for photography
JP4530720B2 (en) * 2004-05-21 2010-08-25 Hoya株式会社 Lighting device for photography
US7509043B2 (en) * 2004-05-25 2009-03-24 Nikon Corporation Illuminating device for photographing and camera
JP4661100B2 (en) * 2004-06-22 2011-03-30 株式会社ニコン Illumination device for photography and camera
JP2005338280A (en) * 2004-05-25 2005-12-08 Nikon Corp Illuminating device for photography and camera
JP2006171951A (en) * 2004-12-14 2006-06-29 Sogo Kanzai Kk Intruder monitoring device and intruder monitoring system
JP4932170B2 (en) * 2005-03-03 2012-05-16 ソニー・エリクソン・モバイルコミュニケーションズ株式会社 Image photographing apparatus, light emission control method, and mobile phone terminal
JP2006323282A (en) * 2005-05-20 2006-11-30 Fujifilm Holdings Corp Photographic apparatus
JP4115467B2 (en) 2005-06-01 2008-07-09 富士フイルム株式会社 Imaging device
JP2007017503A (en) * 2005-07-05 2007-01-25 Fujifilm Holdings Corp Imaging apparatus
EP1742462A1 (en) * 2005-07-08 2007-01-10 Koninklijke Philips Electronics N.V. Digital image capturing device with scan type flash
JP2007020103A (en) * 2005-07-11 2007-01-25 Fujifilm Holdings Corp Photographing apparatus
JP2008058978A (en) * 2007-09-18 2008-03-13 Casio Comput Co Ltd Imaging apparatus with flashing function and method for controlling light emission of imaging apparatus
JP2009300871A (en) * 2008-06-16 2009-12-24 Edm Kk Illuminating device and method for image processing apparatus
EP2490439B1 (en) * 2011-02-18 2013-07-03 Axis AB Illumination device for a monitoring camera
KR101368955B1 (en) * 2012-05-03 2014-03-03 주식회사 아이브이넷 An apparatus and method for adjusting the intensity of radiation for a monitoring camera
JP6081786B2 (en) * 2012-11-29 2017-02-15 能美防災株式会社 Smoke detector
JP6954925B2 (en) * 2017-01-06 2021-10-27 株式会社Fuji Lighting equipment for imaging of component mounting machines
JP6706707B1 (en) * 2019-05-15 2020-06-10 パナソニックi−PROセンシングソリューションズ株式会社 Condenser lens and surveillance camera
US11070740B2 (en) 2019-01-18 2021-07-20 Panasonic I-Pro Sensing Solutions Co., Ltd. Camera device and IR light irradiating method
US20210231302A1 (en) * 2020-01-23 2021-07-29 Nichia Corporation Light source device
US11649945B2 (en) 2020-01-23 2023-05-16 Nichia Corporation Light source device
WO2023120172A1 (en) * 2021-12-22 2023-06-29 日亜化学工業株式会社 Light-emitting device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10142554B2 (en) 2016-08-24 2018-11-27 Samsung Electronics Co., Ltd. Electronic device including light-emitting elements and method of operating electronic device
US10715739B2 (en) 2016-08-24 2020-07-14 Samsung Electronics Co., Ltd. Electronic device including light-emitting elements and method of operating electronic device

Also Published As

Publication number Publication date
JP2000338557A (en) 2000-12-08

Similar Documents

Publication Publication Date Title
JP4416206B2 (en) Imaging device
CN1226866C (en) Solid-state image sensor
EP2288141B1 (en) Brightness sensing system and illumination system using same
US6621519B2 (en) Image pickup apparatus with white balance control based on brightness
JP2008513968A (en) Measuring method of brightness and uniformity in organic LED display
CN1806432A (en) Imaging apparatus
JP4305327B2 (en) Imaging apparatus, white balance control method, and white balance control program
WO2005119638A2 (en) Uniformity and brightness measurement in oled displays
KR100533344B1 (en) Image sensing apparatus with light emitting device, method of controlling light emitting device, image sensing method of image sensing appratus, and storage medium storing image sensing apparatus control program
JP2001281054A (en) Illuminance detector
KR101228338B1 (en) CCTV camera and monitoring method thereof
JP2019017061A5 (en)
JP2001103369A (en) Image sensor system
JP2001333423A (en) Dark place monitoring device
JPH09102849A (en) Image reading device
EP4013037B1 (en) Space mapping illumination in image system
JPH04196985A (en) Illuminating device of image recognizing device
CN112165581A (en) Automatic dodging method for full-color camera
US10880486B2 (en) Image pickup apparatus and control method thereof
KR101639983B1 (en) CCTV systems inclued Quartered separate video and assistant lighting functions
JP2528080Y2 (en) Level detection circuit of imaging device
US20050122421A1 (en) Photographing apparatus with lighting function
JP2003284046A (en) Monitoring camera unit
JP2004246758A (en) Surveillance camera device and surveillance camera system
JPS58117767A (en) Video information reader

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050421

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091124

R150 Certificate of patent or registration of utility model

Ref document number: 4416206

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121204

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131204

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees