JP2004200888A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2004200888A
JP2004200888A JP2002365326A JP2002365326A JP2004200888A JP 2004200888 A JP2004200888 A JP 2004200888A JP 2002365326 A JP2002365326 A JP 2002365326A JP 2002365326 A JP2002365326 A JP 2002365326A JP 2004200888 A JP2004200888 A JP 2004200888A
Authority
JP
Japan
Prior art keywords
video signal
circuit
correction
luminance
correction coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002365326A
Other languages
Japanese (ja)
Inventor
Chikako Sano
知加子 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002365326A priority Critical patent/JP2004200888A/en
Publication of JP2004200888A publication Critical patent/JP2004200888A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging device which is capable of correcting images luminance unevenness depending on the luminance level of the photoed image signals. <P>SOLUTION: The imaging device is equipped with an imaging means provided with an imaging element composed of a plurality of pixels for converting light rays incident through a lens into image signals, a recording means for recording correction data calculated on the basis of the image signals of an object which is photographed as a reference by the imaging means, a level detection means for detecting the luminance level of the image signals converted through the imaging means, a correction factor setting means for setting a prescribed correction factor for correcting the luminance level of the image signals converted through the imaging means corresponding to the luminance level of the image signals detected through the level detecting means, and a luminance unevenness correcting means for correcting the luminance level of the image signals converted through the imaging means on the basis of the prescribed correction factor set by the correction factor setting means and the correction data recorded in the recording means. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、撮影した映像信号の輝度レベルに適応して輝度ムラを補正することができる撮像機器に関するものである。
【0002】
【従来の技術】
デジタルスチルカメラやビデオカメラなどの撮像機器では、レンズを介して入力される被写体からの光をCCD(Charge Coupled Device)などの撮像素子で電気信号に変換し、さらに、この信号をデジタル信号に変換して信号処理部に送り、信号処理部でホワイトバランスや階調を補正してRGB(赤/緑/青)信号に変換し、このRGB信号を輝度信号(Y)及び色差信号(Cb、Cr)に変換した1フレーム分の映像信号が生成される。
【0003】
しかし、撮像機器のレンズや撮像素子の特性によって、この1フレーム内の映像信号における輝度レベルの分布にはムラ(以下、輝度ムラという)が生じてしまう。
【0004】
レンズ特性に起因する輝度ムラは、レンズの中心から離れるほど入射光の光量が低下することにより、レンズの中心部と周辺部との光量の違いが生ずることにより起こるものである。
【0005】
図9は、レンズの光軸中心からの距離と映像信号の輝度レベルの関係を略示的に示したものであり、レンズの光軸中心からの距離が増加するにつれて入射光量(映像信号レベル)は低下する、即ち、撮影した1フレームの映像では、フレームの周辺部分が中心部分に比べて暗くみえるなど、画質に大きな影響を与える。
【0006】
また、撮像素子に起因する輝度ムラは、CCDなどの撮像素子を構成している各画素(セル)の開口部に取り付けられたレンズに対し光の入射角度が異なることで生ずる輝度ムラであり、画素(セル)に対して光が垂直に入射した場合は十分な光量を得られものであるが、レンズの中心から離れるにつれて光の入射角度が変わる(角度が大きくなる)ことにより、画素(セル)への入射光量が減少するために生ずるものである。
【0007】
図10は、レンズの位置と各画素における映像信号の輝度レベルの関係を示すグラフであり、レンズの光軸中心からの距離が増加するにつれて光量が低下し、各画素に垂直に入射する光が減少するため、レンズの中心部から離れるにしたがって映像信号の輝度レベルが低下して行くので、1フレームの映像信号における輝度ムラを引き起こす原因となっている。
【0008】
このような輝度ムラは、レンズ特性を改善することにより低減することもできるが、コストがかかり、完全に補正することができないこともあり、通常は映像信号処理部で補正が行われている。
【0009】
ここで、従来技術における映像信号処理部の輝度ムラ補正処理の具体的な動作について図を参照しながら説明する。
【0010】
例えば、図11に示すブロック図のように、映像信号処理に関連する主要部の構成は、撮像部10a、S/H(Sample/Hold)回路20a、AGC(Automatic Gain Control)回路30a、A/D(Analog/Digital)変換回路40a、カメラ信号処理部50aなどから構成されている。
【0011】
また、カメラ信号処理部50aは、映像信号ムラ補正回路510a、WB(ホワイトバランス)回路511a、γ補正回路512a、色分離回路513a、YC変換回路514a、メモリ517aなどから構成される。
【0012】
このような構成において、被写体からの光が撮像部10aのレンズを介して入力され、CCDなどの撮像素子を構成する各画素によって電気信号に変換され、S/H回路20a、AGC回路30a、A/D変換回路40aを経由してデジタル映像信号に変換されて、カメラ信号処理部50aに送られる。
【0013】
そして、カメラ信号処理部50aは、メモリ517aに記憶されている輝度補正用の補正データを用い、映像信号補正回路510aによって入力されたデジタル映像信号の輝度ムラを補正し、WB回路511aでホワイトバランスの調整(白色補正)を行い、γ補正回路512aで階調を補正し、色分離回路513aで画素の補間処理を行いすべての画素についてRGB信号を得た後、YC変換回路514aで輝度信号(Y)及び色差信号(Cb、Cr)に変換されて出力される。
【0014】
ここで、メモリ517aに記憶されている補正データは、無色で高輝度の被写体(白い紙、ライトボックスなど)の撮影して得た映像信号における輝度レベルの分布状態を測定し、測定した輝度レベルの分布状態に基づきレンズ中心点からの距離[d]やレンズの位置[x,y]に応じて、次に示す数式(A)あるいは数式(B)により算出される。
【0015】
Gi[d]=L[0]/L[d] (A)
【0016】
なお、L[0];光軸中心点(d=0)の輝度レベル、L[d];レンズの光軸中心点からの距離[d]だけ離れたところの映像信号の輝度レベルである。
【0017】
Gi[x,y]=L[0,0]/L[x,y] (B)
【0018】
なお、[x,y];レンズに対応する位置、L[x,y];位置[x,y]における映像信号の輝度レベル、L[0,0];光軸中心部分(位置[x,y]=[0,0])の映像信号の輝度レベルである。
【0019】
そして、数式(A)あるいは数式(B)を使って求めた補正データGi[d]あるいは補正データGi[x,y]を工場出荷時などにあらかじめメモリ517aに記録しておく。
【0020】
カメラ信号処理回路50aでは、撮影した映像信号の輝度レベルをメモリ517aに記録された補正データGi[d]あるいは補正データGi[x,y]を用いて補正することにより、レンズに対する位置やレンズの中心点からの距離に応じた輝度レベルの補正を行う。
【0021】
なお、レンズの中心点からの距離[d]に応じて輝度レベルの補正を行う場合(補正データGi[d]を用いる場合)は、回路の簡易化するため、図12に示したグラフのように、レンズの中心点から離れるごとに補正データGi[d]を所定の値だけ増加するように設定しておくことにより、メモリを使わずに輝度を補正することも可能である。
【0022】
また、レンズの位置[x,y]に応じた補正を行う場合(補正データGi[x,y]を用いる場合)は、撮像素子を構成する各画素(セル)上の色フィルタの特性不均一などに起因する輝度ムラや、画素(セル)の製造段階で生ずる特性のばらつきや画素の配置に起因した輝度ムラ、所謂、固定パターンノイズの補正も可能である。
【0023】
このような輝度ムラ補正処理では、通常、レンズの周辺部分ほど映像信号の輝度レベルの低下が大きいため、レンズの周辺部分の補正データをレンズの中心部分の補正データに比べて大きい値を設定している。そのため、レンズ周辺部分のノイズの輝度レベルまで増幅してしまう。
【0024】
また、メモリに記録してある補正データは、無色で高輝度の被写体を撮影したときの映像信号に基づいて算出されるが、ユーザが実際の被写体を撮影したとき、その被写体が全体的に低い輝度(暗い)のときには、補正データの値が大きすぎて(強すぎて)レンズの周辺部の映像が中心部分より明るくなりすぎてしまい、不自然な映像になることがある。
【0025】
これは、レンズの周辺部分が暗い被写体を撮影しようとしたときに顕著になる。なぜならば、CCDなどの撮像素子による映像信号は輝度レベルが低いほどノイズ成分の影響を大きく受けやすく、また、人間の目が明るい部分のノイズより暗い部分のノイズに気がつきやすいと言う視覚特性を持っているからである。
【0026】
更に、映像信号の輝度レベルが低いほどS/N比は悪く、ノイズ成分が多く含まれるため、補正前の映像信号(1フレーム分)に均一に存在していたノイズ成分が、補正後にはレンズ周辺部分のノイズ成分だけを増加させてしまうこともあり、もともと多かったレンズ周辺部分のノイズをさらに強調させてしまい、画質を劣化させる。
【0027】
また、1フレーム分の映像信号における輝度レベルのばらつき状態も映像信号の輝度レベルに依存する。輝度が高い被写体を撮影した場合、1フレーム内の映像信号における輝度レベルのばらつきは大きく、被写体の輝度レベルが低くなるとそのばらつきは小さくなる。
【0028】
例えば、図13に示す映像信号Aと映像信号Bでは、映像信号Aの方が輝度レベルが大きい(被写体の輝度が高い)ので1フレーム内の映像信号における輝度レベルのばらつきが大きく(輝度ムラが大きく)、映像信号Bの方が輝度レベルが低い(被写体の輝度が低い)のでノイズ成分が多いことになる。
【0029】
ここで、図13に示す映像信号Aと映像信号Bをレンズの中心点からの距離[d]に応じて輝度レベルを補正する(補正データGi[d]を用いる場合)場合について図14を参照しながら説明する。
【0030】
映像信号Aと映像信号Bは、レンズの(光軸)中心点からの距離0〜10に応じて図14(b)の表に示すような輝度レベルの値を取るものであり、これをグラフに示すと、図14(a)の実線のようにレンズの(光軸)中心点からの距離が大きくなるにつれて輝度レベルが低下している。
【0031】
また、補正データ(補正係数)の値は、無色で高輝度の被写体を撮影して得た映像信号に基づいて上述した数式(A)で求めた値を予めメモリに記憶しているものとする。
【0032】
そして、映像信号A及び映像信号Bの輝度レベルを補正データ(補正係数)により補正すると、レンズの(光軸)中心点と比べて低かったレンズ周辺部の輝度レベルが図14(a)の点線で示すグラフのように補正される。
【0033】
映像信号Aは、高輝度の被写体を撮影した映像信号であり、補正データ(補正係数)も無色で高輝度の被写体を撮影して得た映像信号に基づいて求めた値であるため、レンズの中心部から周辺部にかけて一様な輝度レベルに補正され、輝度ムラがほとんどなくなる。
【0034】
一方、映像信号Bは、低輝度の被写体を撮影した映像信号であるため、レンズ周辺部の輝度レベルに対して補正データの値が大きすぎるため、補正後にはレンズの中心部よりレンズ周辺部の輝度レベルが高くなってしまう。
【0035】
また、実際には撮像素子を構成する各画素(セル)の製造段階で生ずる特性のばらつきや画素(セル)上の色フィルタの特性が不均一であることによって、上述した図9や図10のようなレンズの(光軸)中心点からの距離が大きくなるにつれて輝度レベルが低下するのではなく、図15に示すように、各画素の特性や配置(位置)による輝度レベルのばらつきが発生し、各撮像素子(各機器)ごとに固有のパターン、所謂、固定パターンノイズが現れる。
【0036】
従って、映像信号の輝度レベルのばらつきがレンズの中心からの距離に比例しないため、レンズの位置[x,y]に応じて各画素ごとに補正を行う必要がある。
【0037】
このようなレンズの位置[x,y]に応じて各画素ごとに輝度レベルの補正する場合(補正データGi[x,y]を用いる場合)について説明する。
【0038】
図16に示す映像信号Aと映像信号B(実線)は、固定パターンノイズの影響を加味したときの映像信号であり、1フレームの映像信号における或る1ライン(1列又は1行の画素)の輝度レベルの状態を示したものである。
【0039】
映像信号Aと映像信号Bは、レンズの(光軸)中心点からの距離±60の範囲において、図16(b)の表に示すような輝度レベルの値を取るものであり、これをグラフに示すと、図16(a)の実線のように、画素の特性とレンズの(光軸)中心点からの距離によって画素ごとに輝度レベルがバラついた状態となっている。
【0040】
また、補正データ(補正係数)の値は、無色で高輝度の被写体を撮影して得た映像信号に基づいて上述した数式(B)で求めた値を予めメモリに記憶しているものとする。
【0041】
そして、映像信号A及び映像信号Bの輝度レベルを補正データ(補正係数)により補正すると、それぞれ図16(a)のグラフの点線で示すように補正される。
【0042】
映像信号Aは、高輝度の被写体を撮影した映像信号であり、補正データ(補正係数)も無色で高輝度の被写体を撮影して得た映像信号に基づいて求めた値であるため、各画素の輝度レベルは一様な輝度レベルに補正され、輝度ムラがほとんどなくなる。
【0043】
一方、映像信号Bは、低輝度の被写体を撮影した映像信号であるため、ある画素に対する補正データの値が大きすぎる場合もあり(例えば、レンズ中心からの距離[d]が「−20」に対する画素の補正値)、この画素の周辺の輝度レベルが他の画素に対する輝度レベルより突出して大きくなり、不自然な映像になる。
【0044】
そこで、全面が均等な明るさで無地白色の基準被写体を撮影した画像データに基づいて作成した補正データによりレンズに起因する画像の中央部と周辺部との輝度の歪みを補正する(例えば、特許文献1参照)、2次元的に画素が配列された撮像素子により撮像された画像の列及び行に対する補正データのうち、少なくとも一方を、注目画素の位置に応じて変更することにより撮像素子の感度の不均一性を補正する(例えば、特許文献2参照)、シェーディング補正処理と共に輪郭強調処理を行い、レンズの周辺部分における画像の輪郭強調を弱めることで輝度ムラを改善する(例えば、特許文献3参照)などの方法・装置が考案されている。
【0045】
【特許文献1】
特開2001−211456号公報(第2−4頁、図1)
【特許文献2】
特開2001−16509号公報(第5−8頁、図1)
【特許文献3】
特開2001−167263号公報(第5−8頁、図1)
【0046】
【発明が解決しようとする課題】
上述したように、映像信号の輝度レベルの低下は、レンズの光軸中心からの距離に比例するが、実際には必ずしも左右、上下対称ではない。このためレンズの光軸中心からの距離情報だけで補正をした場合、補正後の映像の明るさが方向によって異なってしまうという問題がある。
【0047】
一方、CCDなどの撮像素子の製造時に生じる色フィルタの塗布ムラなどにより生じる輝度ムラは、画素毎の補正係数を持ったテーブルを作成し、各画素とレンズ位置との関係を見ながら画素ごとに輝度レベルを補正する必要があるが、補正のときに無色で高輝度の被写体を撮影した映像信号に基づいて作成した補正データを用いると、比較的ノイズが多い暗い部分で、補正ゲインが大きすぎることにより固定パターンノイズをさらに強調してしまうという問題がある。
【0048】
更に、画素(セル)サイズの微細化に伴い、顔料を色フィルタ材料として使用した場合に、顔料の粒子の大きさにより発生する輝度ムラも無視できない問題となってきており、これを補正(あるいは除去)することが重要になってきている。
【0049】
また、シェーディング補正処理と共に輪郭強調処理を行って輝度ムラを改善する場合、映像信号の輝度ムラ補正用と輪郭補正用の二つの補正データ(テーブル)が必要であることから回路規模も大きくなり処理も複雑となる。
【0050】
そこで、撮影時における撮像機器の設定情報(シャッタースピード、露出など)をもとに、補正に使用する補正データ(テーブル)を切り替える方法もあるが、制御が複雑であり、撮影した映像信号(1フレーム分)における輝度レベルの分布状態に応じて輝度ムラを補正することができないという問題がある。
【0051】
従って、撮影した映像信号における輝度レベルの分布状態に適応して輝度レベルを調整可能とし、且つ、レンズや撮像素子に起因する輝度ムラの補正を行うことができるようにすることに解決しなければならない課題を有する。
【0052】
【課題を解決するための手段】
前記課題を解決するため、本発明に係る撮像機器は次のような構成にすることである。
【0053】
(1)レンズから入射する光を映像信号として変換するための複数個の画素から構成される撮像素子を備えた撮像手段と、前記撮像素子を構成する各画素によって変換された映像信号の輝度レベルを補正するため、前記撮像手段で基準となる被写体を撮像したときの映像信号をもとに算出した補正データが記録してある記録手段と、前記撮像手段で変換した映像信号の輝度レベルを検出するレベル検出手段と、前記レベル検出手段で検出した映像信号の輝度レベルに応じて、前記撮像手段で変換した映像信号の輝度レベルを補正するための所定の補正係数を設定する補正係数設定手段と、前記補正係数設定手段で設定した所定の補正係数と前記記録手段に記録してある補正データとに基づいて前記撮像手段で変換した映像信号の輝度レベルを補正する輝度むら補正手段と、を備えていることを特徴とする撮像機器。
(2)前記記録手段の補正データは、前記基準となる被写体を撮像したときの映像信号をもとに、前記レンズの中心点を基準とし、該中心点からの距離に応じて算出した補正データであることを特徴とする(1)に記載の撮像機器。
(3)前記記録手段の補正データは、前記基準となる被写体を撮像したときの映像信号をもとに、前記レンズの中心点を基準とし、該中心点からの位置情報に応じて前記撮像素子を構成する画素ごとに算出した補正データであることを特徴とする(1)に記載の撮像機器。
(4)前記補正係数設定手段は、前記撮像手段で撮像した映像信号をR・G・B信号に変換して処理している場合、該R・G・B信号それぞれに応じた所定の補正係数を設定できることを特徴とする(1)に記載の撮像機器。
(5)前記補正係数設定手段は、前記撮像素子を構成する画素ごとに所定の補正係数を設定できることを特徴とする(1)に記載の撮像機器。
【0054】
このような構成とすることにより、撮像手段で変換した映像信号の輝度レベルをレベル検出手段で検出し、検出した輝度レベルに応じて補正係数設定手段が所定の補正係数を設定し、輝度むら補正手段によって補正係数設定手段で設定した補正係数と記録手段に記録してある補正データとに基づいて、撮像手段で変換した映像信号の輝度レベルを補正するので、撮影した映像の輝度レベルに適応して輝度レベルを補正し、且つ、レンズや撮像素子に起因する輝度ムラを補正することができる。
【0055】
【発明の実施の形態】
次に、本発明に係る撮像機器における実施の形態について図面を参照して説明する。但し、図面は専ら解説のためのものであって、本発明の技術的範囲を限定するものではない。
【0056】
まず、本発明に係る撮像機器の第1の実施例について図1を参照しながら説明する。
【0057】
図1は、撮像機器において、映像信号の輝度ムラ補正の主要となる部分の構成を略示的に示したブロック図であり、撮像部10、S/H(Sample/Hold)回路20、AGC(Automatic Gain Control)回路30、A/D(Analog/Digital)変換回路40、タイミングジェネレータ45、カメラ信号処理部50などを備えている。
【0058】
撮像部10は、レンズと、入射した光を電気信号に変換する複数個の画素(例えば、CCD(Charge Coupled Device)など)を配列して構成された撮像素子を備えている。
【0059】
そして、レンズを介して取り込んだ被写体からの光を、撮像素子を構成する各画素が電気信号に変換し、タイミングジェネレータ45で生成されるタイミング信号に従って各画素で変換した電気信号を順次取り込み、所定時間内でレンズを介し取り込んだ範囲(以下、フレームという)の映像を1フレーム分のアナログ映像信号としてS/H回路20に送出する。
【0060】
S/H回路20は、入力側を撮像部10、出力側をAGC回路30と接続し、撮像部10から送られてくるアナログ映像信号をサンプリングしてAGC回路30に送出し、サンプリングした値をA/D変換回路40の処理が終了するまで保持し、この処理が終了すると次のサンプリング値をAGC回路30に送出する。
【0061】
AGC回路30は、入力側をS/H回路20、出力側をA/D変換回路40と接続し、S/H回路20でサンプリングされたアナログ映像信号を増幅して、A/D変換回路40へ送出する。
【0062】
A/D回路40は、入力側をAGC回路30、出力側をカメラ信号処理部50と接続し、AGC回路30で増幅されたアナログ映像信号をデジタル映像信号に変換してカメラ信号処理部50へ送出する。
【0063】
タイミングジェネレータ45は、撮像部10の撮像素子を構成する各画素が変換した電気信号を取り込むための基準となるタイミング信号を生成して撮像部10に送出すると同時に、カメラ信号処理部50のアドレスカウンタ518にも同じタイミング信号を送出する。
【0064】
カメラ信号処理部50は、映像信号補正回路510、WB(ホワイトバランス)回路511、γ(ガンマ)補正回路512、色分離回路513、YC変換回路514、レベル検出回路515、補正係数設定回路516、メモリ517、アドレスカウンタ518、乗算器519、LPF(Low Pass Filter)520、光軸距離算出回路521などから構成され、A/D変換回路40から送られてくるデジタル映像信号に対して所定の信号処理を施し、輝度信号(Y信号)と色差信号(Cb信号、Cr信号)に変換して出力する。
【0065】
また、上述したカメラ信号処理部50を構成する各回路510〜521は以下のような機能を備えている。
【0066】
映像信号補正回路510は、A/D回路40から送られてくるデジタル映像信号における輝度信号レベルのムラを、シェーディング補正係数G[d](後述)に基づいて補正してWB回路511へ送出する。
【0067】
WB(ホワイトバランス)回路511は、映像信号補正回路510で輝度ムラの補正処理が施こされたデジタル映像信号に対し、撮影環境における光源の状態で変化する色温度に応じて白色を正しく撮影できるように補正する、いわゆる、ホワイトバランス補正を行ってγ補正回路512へ送出する。
【0068】
γ(ガンマ)補正回路512は、WB回路511でホワイトバランス補正処理が施されたデジタル映像信号の階調を補正する、いわゆる、γ補正を行って色分離回路513へ送出する。
【0069】
色分離回路513は、γ補正回路512でγ補正処理が施されたデジタル映像信号の補間を行うものであり、R(赤)、G(緑)、B(青)の画素データが存在しない位置におけるRGB信号の補間処理を行ってYC変換回路514へ送出する。
【0070】
具体的には、例えば、原色G市松、R/B線順次のカラーフィルタ配列をもつ撮像素子を使った場合、それぞれの画素位置にはR、G、Bいずれか1種類の色信号しか存在しない。画素毎の輝度信号、色差信号を生成するためには、すべての画素位置でのR・G・B信号が必要であるため、もともとの色データが存在しない画素位置について補間処理を行い、全ての画素についてのRGB信号を得るための処理を行う回路である。
【0071】
YC変換回路514は、色分離回路513で補間処理されたRGB信号を輝度信号(Y信号)と色差信号(Cb信号、Cr信号)に変換して出力する。
【0072】
レベル検出回路515は、A/D回路40から送られてくるデジタル映像信号の輝度レベルを検出して補正係数設定回路516へ送出する。
【0073】
補正係数設定回路516は、レベル検出回路515で検出されたデジタル映像信号の輝度レベルに応じて輝度を補正するための補正係数Gh[In]を設定し、設定した補正係数Gh[In]を乗算器519に送出する。
【0074】
メモリ517は、基準となる被写体(例えば、輝度レベルが高く、無色の被写体)を撮像して得た映像信号における輝度レベルの分布状態をもとに、撮像部10のレンズの光軸中心からの距離に応じて算出した輝度レベルの補正データGi[d]が記憶されており、光軸距離算出回路521から指示されるレンズの光軸中心からの距離[d]に対応した補正データGi[d]を乗算器519に送出する。
【0075】
アドレスカウンタ518は、タイミングジェネレータ45のタイミング信号を取り込んでカウントし、このカウント値を光軸距離算出部521に送出する。
【0076】
このカウント値は、撮像部10で取り込んだ1フレーム分の映像(信号)のうち、何処の位置に配置されている画素で処理した映像信号であるのかを判別できるものである、即ち、画素の配置された位置に対応した値となっている。
【0077】
光軸距離算出回路521は、アドレスカウンタ518からのカウント値に基づき、撮像部10のレンズの光軸中心からの距離[d]を算出し、メモリ517に対して算出した距離[d]に対応する補正データGi[d]を出力するように指示する。
【0078】
乗算器519は、補正係数設定回路516で設定された補正係数Gh[In]と、メモリ517から出力される補正データGi[d]とを乗算処理して算出される補正値、シェーディング補正係数G[d]をLPF520に出力する。
【0079】
LPF(Low Pass Filter)520は、ノイズの影響などを除去したり、シェーディング補正係数G[d]による補正で撮影した映像信号の輝度が急激に変化することを防ぐため、乗算器519から送られてくるシェーディング補正係数G[d]を所定の値に調整して映像信号補正回路510に送出する。
【0080】
このような構成からなる撮像機器によって、映像信号の輝度ムラを補正するときの処理過程について図を参照しながら説明する。
【0081】
まず、撮像部10のレンズを介して取り込んだ被写体からの光を、撮像素子を構成する各画素が電気信号に変換し、タイミングジェネレータ45で生成されるタイミング信号に従って各画素で変換した電気信号を順次取り込み、所定の時間内でレンズを介して取り込んだ範囲(以下、フレームという)の映像を1フレーム分のアナログ映像信号としてS/H回路20に送出する。
【0082】
S/H回路20は、撮像部10から送られてくるアナログ映像信号をサンプリングしてAGC回路30に送出し、サンプリングした値をA/D変換回路40の処理が終了するまで保持し、この処理が終了すると次のサンプリング値をAGC回路30に送出する。
【0083】
AGC回路30は、S/H回路20でサンプリングされたアナログ映像信号を増幅し、A/D回路40によってAGC回路30で増幅されたアナログ映像信号をデジタル映像信号に変換してカメラ信号処理部50へ送出する。
【0084】
カメラ信号処理部50では、A/D回路40からのデジタル映像信号を映像信号補正回路510とレベル検出回路515に送る。
【0085】
レベル検出回路515では、送られてくるデジタル映像信号の輝度レベルを検出して補正係数設定回路516へ送出し、補正係数設定回路516は、検出した輝度レベルに応じて補正係数Gh[In]を設定して乗算器519に送出する。
【0086】
具体的に説明すると、補正係数設定回路14では、デジタル映像信号の輝度レベルを数段階に分け、各段階に所定の補正係数Gh[In]を予め定めたテーブルを有しており、レベル検出回路515で検出した輝度レベルに応じてこのテーブルを参照し、所定の補正係数Gh[In]を設定する。
【0087】
例えば、図2に示すように、レベル検出回路515で検出するデジタル映像信号の輝度レベルを0〜255の範囲であるとした場合、輝度レベルが「0〜64」のときは補正係数Gh[In]を「5/8」、輝度レベルが「65〜128」のときは補正係数Gh[In]を「6/8」、輝度レベルが「129〜192」のときは補正係数Gh[In]を「7/8」、輝度レベルが「193〜255」のときは補正係数Gh[In]を「8/8」というように設定しておく。なお、レベルをより細かく分割した大きなテーブルを持てば、さらに細かい制御が可能である。
【0088】
一方、アドレスカウンタ518は、タイミングジェネレータ45からのタイミング信号を取り込んでカウントしたカウント値を光軸距離算出回路521に送り、光軸距離算出回路521によって撮像部10で取り込んだ1フレーム分の映像(信号)の何処の位置の映像信号であるのかを判別し、判別した位置情報に基づいて図3に示すような撮像部10のレンズ(フレーム)の光軸中心点からの距離[d]を算出し、メモリ517に対してこの距離[d]に対応している補正データGi[d]を乗算器519に送出するように指示する。
【0089】
そして、乗算器519によって、補正係数設定回路516で設定した補正係数Gh[In]とメモリ517から送出されてくる補正データGi[d]とを乗算処理することによりシェーディング補正係数G[d]が算出される。
【0090】
ここで、メモリ517に記憶してある補正データGi[d]の値は、レンズの中心部分ほど”1”に近く、レンズの周辺にいくほど”1”より大きくなるため、CCDなどの撮像素子の色フィルタに起因して輝度ムラが発生している場合、補正の基準としているレンズの中心部分より輝度が大きく(明るく)なることもあり、補正データGi[d]の値が”1”以下になることがある。
【0091】
そこで、このような場合を考慮し、乗算器519では、補正データGi[d]の値が”1”より小さいときは数式1、補正データGi[d]の値が”1”より大きいときは数式2によってシェーディング補正係数G[d]を算出する。
【0092】
【数1】
G[d] =(1−Gi[d])×Gh[In] ;Gi[d] < 1の時
【0093】
【数2】
G[d] =(Gi[d]−1)×Gh[In] ;Gi[d] > 1の時
【0094】
乗算器519で算出されたシェーディング補正係数G[d]はLPF520に送られ、LPF520によりノイズの影響などを除去したり、映像信号全体に対してシェーディング補正係数G[d]による急激な変化を防ぐための調整がなされて映像信号補正回路510に送られる。
【0095】
映像信号補正回路510は、A/D回路40から送られてくるデジタル映像信号の輝度ムラをLPF520からのシェーディング補正係数G[d]に基づいて補正してWB回路511へ送出する。
【0096】
そして、映像信号補正回路510で輝度ムラの補正処理が施こされたデジタル映像信号は、WB回路511でホワイトバランスの補正がなされ、続いて、γ補正回路512で階調の補正が行われ、色分離回路513で補間処理したRGB信号をYC変換回路514で輝度信号(Y信号)と色差信号(Cb信号、Cr信号)に変換して後段回路へ出力される。
【0097】
このように、撮影した映像信号の輝度レベルに基づき、レンズの光軸中心からの距離[d]に応じて輝度ムラを適切に補正することができる。
【0098】
次に、第2の実施例について図4を参照しながら説明する。
【0099】
上述した第1の実施例(図?参照)と同様、レンズの中心からの距離[d]に応じて映像信号の輝度ムラを補正する点では同じであるが、一般的な撮像機器に具備されているシャッタースピード、露出などの撮影に必要となるパラメータを自動設定する撮影パラメータ設定回路を利用して輝度ムラの補正を行う場合について説明する。
【0100】
このような撮像機器における輝度ムラを補正するための主要部は、図4に示すように、撮像部10、S/H(Sample/Hold)回路20、AGC(Automatic Gain Control)回路30、A/D(Analog/Digital)変換回路40、タイミングジェネレータ45、カメラ信号処理部50、被写体検出回路60、撮影パラメータ設定回路70などを備えている。
【0101】
次に、各回路などの機能を説明するが、撮像部10、S/H(Sample/Hold)回路20、AGC(Automatic Gain Control)回路30、A/D(Analog/Digital)変換回路40、タイミングジェネレータ45は、上述した第1の実施例と同様の機能であるので、その説明を省略する。
【0102】
カメラ信号処理部50は、映像信号補正回路510、WB(ホワイトバランス)回路511、γ(ガンマ)補正回路512、色分離回路513、YC変換回路514、補正係数設定回路516、メモリ517、アドレスカウンタ518、乗算器519、LPF(Low Pass Filter)520、光軸距離算出回路521などから構成されている。
【0103】
次に、このカメラ信号処理部50を構成する各回路510〜521の機能について説明するが、補正係数設定回路516以外の映像信号補正回路510、WB回路511、γ補正回路512、色分離回路513、YC変換回路514、メモリ517、アドレスカウンタ518、乗算器519、LPF520、光軸距離算出回路521については、上述した第1の実施例の説明と同じ機能を有するため、その説明を省略する。
【0104】
カメラ信号処理部50の補正係数設定回路516は、撮影パラメータ設定回路70の制御に従い、被写体検出回路60で検出された映像信号(1フレーム分)の輝度レベルの分布状態に基づいてデジタル映像信号全体の輝度を適切に補正するための補正係数Gh[all]を設定する。
【0105】
補正係数Gh[all]の値は、図5に示すように、輝度が低い被写体を撮影した場合は、Gh[all]の値を小さくし、輝度が高い被写体を撮影した場合は大きくすることにより、輝度の低い、即ち、暗い被写体の撮影時におけるノイズの増加やレンズ周辺部分の輝度が必要以上に増加することを抑制することができる。
【0106】
被写体検出回路60は、A/D回路40から送られてくる映像信号(1フレーム分)の輝度レベルの分布状態を検出して撮影パラメータ設定回路70に送出する。
【0107】
撮影パラメータ設定回路70は、AGC回路30やWB回路511などを制御してシャッタースピード、露出などの撮影に必要となるパラメータを自動設定するとともに、被写体検出回路60で検出されたデジタル映像信号全体(1フレーム分)の輝度レベルの分布状態を補正係数設定回路516に送出する。
【0108】
このような構成からなる撮像機器によって、映像信号の輝度ムラを補正するときの処理過程について図を参照しながら説明する。
【0109】
まず、撮像部10のレンズを介して取り込んだ被写体からの光を、撮像素子を構成する各画素が電気信号に変換し、タイミングジェネレータ45で生成されるタイミング信号に従って各画素で変換した電気信号を順次取り込み、所定時間内でレンズを介し取り込んだ範囲(以下、フレームという)の映像を1フレーム分のアナログ映像信号としてS/H回路20に送出する。
【0110】
S/H回路20は、撮像部10から送られてくるアナログ映像信号をサンプリングしてAGC回路30に送出し、サンプリングした値をA/D変換回路40の処理が終了するまで保持し、この処理が終了すると次のサンプリング値をAGC回路30に送出する。
【0111】
AGC回路30は、S/H回路20でサンプリングされたアナログ映像信号を増幅し、A/D回路40によってAGC回路30で増幅されたアナログ映像信号をデジタル映像信号に変換してカメラ信号処理部50と被写体検出部60へ送出する。
【0112】
被写体検出部60では、デジタル映像信号(1フレーム分)の輝度レベルの分布状態を検出して撮影パラメータ設定回路70に送り、撮影パラメータ設定回路70は、この輝度レベルの分布状態をカメラ信号処理部50の補正係数設定回路516に送る。
【0113】
カメラ信号処理部50では、A/D回路40からのデジタル映像信号を映像信号補正回路510に送るとともに、タイミングジェネレータ45から送出されるタイミング信号を取り込んでアドレスカウンタ518によってカウントし、このカウント値によって撮像部10で取り込んだ1フレーム分の映像(信号)のどこの位置の処理が行われているかを判別し、判別した位置情報に基づいて図3に示すような撮像部10のレンズ(フレーム)の光軸中心からの距離[d]を算出し、メモリ517に対してこの距離[d]に対応している補正データGi[d]を乗算器519に送出するように指示する。
【0114】
また、カメラ信号処理部50の補正係数設定回路516では、撮影パラメータ設定回路70から送られてくるデジタル映像信号(撮影した被写体)の輝度レベルの分布状態に応じた補正係数Gh[all]を設定して乗算器519に送出する。
【0115】
そして、乗算器519は、数式3に示すように、補正係数設定回路516で設定した補正係数Gh[all]とメモリ517から送出されてくる補正データGi[d]とを乗算処理することによりシェーディング補正係数G[d]を算出する。
【0116】
【数3】
G[d] =Gi[d]×Gh[all]
【0117】
乗算器519で算出されたシェーディング補正係数G[d]は、LPF520に送られ、LPF520によりノイズの影響などを除去したり、映像信号全体に対してシェーディング補正係数G[d]による急激な変化を防ぐための調整がなされて映像信号補正回路510に送られる。
【0118】
映像信号補正回路510は、A/D回路40から送られてくるデジタル映像信号の輝度ムラをLPF520からのシェーディング補正係数G[d]に基づいて補正してWB回路511へ送出する。
【0119】
そして、映像信号補正回路510で輝度ムラの補正処理が施こされたデジタル映像信号は、WB回路511でホワイトバランスの補正がなされ、続いて、γ補正回路512で階調の補正が行われ、色分離回路513で補間処理したRGB信号をYC変換回路514で輝度信号(Y信号)と色差信号(Cb信号、Cr信号)に変換して後段回路へ出力される。
【0120】
このように、被写体検出回路や撮影パラメータ設定回路など既存の回路を利用して補正することも可能である。
【0121】
次に、第3の実施例について図6を参照しながら説明する。上述した第1、2の実施例では、レンズの中心からの距離[d]に応じて映像信号の輝度ムラを補正するものであるが、上述したように、撮像部10の撮像素子を構成する各画素は製造段階で生ずる特性のバラツキがあり、更に、レンズと画素の位置関係によって輝度ムラが出てしまう。
【0122】
そこで、レンズと画素との位置関係に基づいて輝度ムラを補正する場合について説明する。
【0123】
図6は、撮像機器における輝度ムラ補正の主要となる部分の構成を略示的に示したブロック図であり、撮像部10、S/H(Sample/Hold)回路20、AGC(Automatic Gain Control)回路30、A/D(Analog/Digital)変換回路40、タイミングジェネレータ45、カメラ信号処理部50などを備えている。
【0124】
撮像部10は、レンズと、入射した光を電気信号に変換する複数個の画素(例えば、CCD(Charge Coupled Device)など)を配列して構成された撮像素子を備えている。
【0125】
そして、撮像部10のレンズを介して取り込んだ被写体からの光を、撮像素子を構成する各画素が電気信号に変換し、タイミングジェネレータ45で生成されるタイミング信号に従って各画素で変換した電気信号を順次取り込み、所定時間内でレンズを介し取り込んだ範囲(以下、フレームという)の映像を1フレーム分のアナログ映像信号としてS/H回路20に送出する。
【0126】
S/H回路20は、入力側を撮像部10、出力側をAGC回路30と接続し、撮像部10から送られてくるアナログ映像信号をサンプリングしてAGC回路30に送出し、サンプリングした値をA/D変換回路40の処理が終了するまで保持し、この処理が終了すると次のサンプリング値をAGC回路30に送出する。
【0127】
AGC回路30は、入力側をS/H回路20、出力側をA/D変換回路40と接続し、S/H回路20でサンプリングされたアナログ映像信号を増幅して、A/D変換回路40へ送出する。
【0128】
A/D回路40は、入力側をAGC回路30、出力側をカメラ信号処理部50と接続し、AGC回路30で増幅されたアナログ映像信号をデジタル映像信号に変換してカメラ信号処理部50へ送出する。
【0129】
タイミングジェネレータ45は、撮像部10の撮像素子を構成する各画素が変換した電気信号を取り込むための基準となるタイミング信号を生成して撮像部10に送出すると同時に、カメラ信号処理部50のアドレスカウンタ518にも同じタイミング信号を送出する。
【0130】
カメラ信号処理部50は、映像信号補正回路510、WB(ホワイトバランス)回路511、γ(ガンマ)補正回路512、色分離回路513、YC変換回路514、レベル検出回路515、補正係数設定回路516、メモリ517、アドレスカウンタ518、乗算器519、LPF(Low Pass Filter)520などから構成され、A/D変換回路40から送られてくるデジタル映像信号に対して所定の信号処理を施し、輝度信号(Y信号)と色差信号(Cb信号、Cr信号)に変換して出力する。
【0131】
また、上述したカメラ信号処理部50を構成する各回路510〜520は以下のような機能を備えている。
【0132】
映像信号補正回路510は、A/D回路40から送られてくるデジタル映像信号における輝度信号レベルのムラを、シェーディング補正係数G[x,y](後述)に基づいて補正してWB回路511へ送出する。
【0133】
WB(ホワイトバランス)回路511は、映像信号補正回路510で輝度ムラの補正処理が施こされたデジタル映像信号に対し、撮影環境における光源の状態で変化する色温度に応じて白色を正しく撮影できるように補正する、いわゆる、ホワイトバランス補正を行ってγ補正回路512へ送出する。
【0134】
γ(ガンマ)補正回路512は、WB回路511でホワイトバランス補正処理が施されたデジタル映像信号の階調を補正する、いわゆる、γ補正を行って色分離回路513へ送出する。
【0135】
色分離回路513は、γ補正回路512でγ補正処理が施されたデジタル映像信号の補間を行うものであり、R(赤)、G(緑)、B(青)の画素データが存在しない位置におけるRGB信号の補間処理を行ってYC変換回路514へ送出する。
【0136】
具体的には、例えば、原色G市松、R/B線順次のカラーフィルタ配列をもつ撮像素子を使った場合、それぞれの画素位置にはR、G、Bいずれか1種類の色信号しか存在しない。画素毎の輝度信号、色差信号を生成するためには、すべての画素位置でのR・G・B信号が必要であるため、もともとの色データが存在しない画素位置について補間処理を行い、全ての画素についてのRGB信号を得るための処理を行う回路である。
【0137】
YC変換回路514は、色分離回路513で補間処理されたRGB信号を輝度信号(Y信号)と色差信号(Cb信号、Cr信号)に変換して出力する。
【0138】
レベル検出回路515は、A/D回路40から送られてくるデジタル映像信号の輝度レベルを検出して補正係数設定回路516へ送出する。
【0139】
補正係数設定回路516は、レベル検出回路515で検出されたデジタル映像信号の輝度レベルに応じて輝度を補正するための補正係数Gh[In]を設定し、設定した補正係数Gh[In]を乗算器519に送出する。
【0140】
メモリ517は、基準となる被写体(例えば、輝度レベルが高く、無色の被写体)を撮像したときの映像信号をもとに、撮像部10の撮像素子を構成する各画素ごとに処理(変換)した映像信号の輝度レベル求め、この輝度レベルに基づいて算出した各画素ごとの補正データGi[x,y]が記憶されており、アドレスカウンタ518から指示される位置情報に対応した補正データGi[x,y]を乗算器519に送出する。
【0141】
アドレスカウンタ518は、タイミングジェネレータ45のタイミング信号を取り込んでカウントし、このカウント値をメモリ517に送出する。
【0142】
このカウント値は、撮像部10で取り込んだ1フレーム分の映像(信号)うち、何処の位置に配置されている画素で処理した映像信号であるのかを判別できるものである、即ち、画素が配置されている位置情報(位置[x,y])と対応した値となっている。
【0143】
乗算器519は、補正係数設定回路516で設定された補正係数Gh[In]と、メモリ517から出力される補正データGi[x,y]とを乗算処理して算出される各画素ごと補正値であるシェーディング補正係数G[x,y]をLPF520に出力する。
【0144】
LPF(Low Pass Filter)520は、ノイズの影響などを除去したり、シェーディング補正係数G[d]による補正で撮影した映像信号の輝度が急激に変化することを防ぐため、乗算器519から送られてくるシェーディング補正係数G[x,y]を所定の値に調整して映像信号補正回路510に送出する。
【0145】
このような構成からなる撮像機器によって、映像信号の輝度ムラを補正するときの処理過程について図を参照しながら説明する。
【0146】
まず、撮像部10のレンズを介して取り込んだ被写体からの光を、撮像素子を構成する各画素が電気信号に変換し、タイミングジェネレータ45で生成されるタイミング信号に従って各画素で変換した電気信号を順次取り込み、所定の時間内でレンズを介し取り込んだ範囲(以下、フレームという)の映像を1フレーム分のアナログ映像信号としてS/H回路20に送出する。
【0147】
S/H回路20は、撮像部10から送られてくるアナログ映像信号をサンプリングしてAGC回路30に送出し、サンプリングした値をA/D変換回路40の処理が終了するまで保持し、この処理が終了すると次のサンプリング値をAGC回路30に送出する。
【0148】
AGC回路30は、S/H回路20でサンプリングされたアナログ映像信号を増幅し、A/D回路40は、AGC回路30で増幅されたアナログ映像信号をデジタル映像信号に変換してカメラ信号処理部50へ送出する。
【0149】
カメラ信号処理部50では、A/D回路40からのデジタル映像信号を映像信号補正回路510とレベル検出回路515に送る。
【0150】
レベル検出回路515では、送られてくるデジタル映像信号の輝度レベルを検出して補正係数設定回路516へ送出し、補正係数設定回路516は、検出した輝度レベルに応じて補正係数Gh[In]を設定して乗算器519に送出する。
【0151】
一方、アドレスカウンタ518は、タイミングジェネレータ45からのタイミング信号を取り込んでカウントしたカウント値をメモリ517に送り、メモリ517は、送られてきたカウント値に基づいて図7に示すようなレンズ(フレーム)の位置[x,y]に対応した画素の補正データGi[x,y]を乗算器519に送出するように指示する。
【0152】
ここで、メモリ517に記憶してある補正データGi[x,y]の値は、レンズの中心部分ほど”1”に近く、レンズの周辺にいくほど”1”より大きくなるため、CCDなどの撮像素子の色フィルタに起因して輝度ムラが発生している場合、補正の基準としているレンズの中心部分より輝度が大きく(明るく)なることもあり、補正データGi[x,y]の値が”1”以下になることがある。
【0153】
そこで、このような場合を考慮し、乗算器519では、補正データGi[x,y]の値が”1”より小さいときは数式3、補正データGi[x,y]の値が”1”より大きいときは数式4によってシェーディング補正係数G[x,y]を算出する。
【0154】
【数4】
G[x,y] =(1−Gi[x,y])×Gh[In] ;Gi[x,y] < 1の時
【0155】
【数5】
G[x,y] =(Gi[x,y]−1)×Gh[In] ;Gi[x,y]> 1の時
【0156】
乗算器519で算出されたシェーディング補正係数G[x,y]は、LPF520に送られ、LPF520によりノイズの影響などを除去したり、映像信号全体に対してシェーディング補正係数G[x,y]による急激な変化を防ぐための調整がなされて映像信号補正回路510に送られる。
【0157】
映像信号補正回路510は、A/D回路40から送られてくるデジタル映像信号の輝度ムラをLPF520からのシェーディング補正係数G[x,y]基づいて補正してWB回路511へ送出する。
【0158】
そして、映像信号補正回路510で輝度ムラの補正処理が施こされたデジタル映像信号は、WB回路511でホワイトバランスの補正がなされ、続いて、γ補正回路512で階調の補正が行われ、色分離回路513で補間処理したRGB信号をYC変換回路514で輝度信号(Y信号)と色差信号(Cb信号、Cr信号)に変換して後段回路へ出力される。
【0159】
このように、撮影した映像信号の輝度レベルに応じて、レンズと画素との位置関係に基づいて輝度ムラを補正するので、撮像素子を構成する画素に起因した固定パターンノイズによる輝度ムラを含んで補正を行うことができる。
【0160】
次に、第4の実施例について図8を参照しながら説明する。
【0161】
上述した第3の実施例(図6参照)と同様、撮像素子を構成する画素ごとに輝度ムラを補正する点では同じであるが、一般的な撮像機器に具備されているシャッタースピード、露出などの撮影に必要となるパラメータを自動設定する撮影パラメータ設定回路を利用して輝度ムラの補正を行う場合について説明する。
【0162】
このような撮像機器における輝度ムラを補正するための主要部は、図8に示すように、撮像部10、S/H(Sample/Hold)回路20、AGC(Automatic Gain Control)回路30、A/D(Analog/Digital)変換回路40、タイミングジェネレータ45、カメラ信号処理部50、被写体検出回路60、撮影パラメータ設定回路70などを備えている。
【0163】
次に、各回路の機能について説明するが、撮像部10、S/H(Sample/Hold)回路20、AGC(Automatic Gain Control)回路30、A/D(Analog/Digital)変換回路40、タイミングジェネレータ45は、上述した第1〜3の実施例と同じ機能であるので、その説明を省略する。
【0164】
カメラ信号処理部50は、映像信号補正回路510、WB(ホワイトバランス)回路511、γ(ガンマ)補正回路512、色分離回路513、YC変換回路514、補正係数設定回路516、メモリ517、アドレスカウンタ518、乗算器519、LPF(Low Pass Filter)520などから構成されている。
【0165】
次に、このカメラ信号処理部50を構成する各回路510〜520の機能について説明するが、補正係数設定回路516以外の映像信号補正回路510、WB回路511、γ補正回路512、色分離回路513、YC変換回路514、メモリ517、アドレスカウンタ518、乗算器519、LPF520については、上述した第3の実施例の説明と同じ機能を有するため、その説明を省略する。
【0166】
カメラ信号処理部50の補正係数設定回路516は、撮影パラメータ設定回路70の制御に従い、被写体検出回路60で検出された映像信号(1フレーム分)の輝度レベルの分布状態に基づいて映像信号全体の輝度を適切に補正するための補正係数Gh[all]を設定する。
【0167】
なお、上述の第2の実施例の説明と同様、補正係数Gh[all]の値は、図5に示すように、輝度が低い被写体を撮影した場合はGh[all]の値を小さくし、輝度が高い被写体を撮影した場合は大きくすることにより、輝度の低い、即ち、暗い被写体の撮影時におけるノイズの増加やレンズ周辺部分の輝度が必要以上に増加することを抑制することができる。
【0168】
被写体検出回路60は、A/D回路40から送られてくる映像信号(1フレーム分)の輝度レベルの分布状態を検出して撮影パラメータ設定回路70に送出する。
【0169】
撮影パラメータ設定回路70は、AGC回路30やWB回路511などを制御してシャッタースピード、露出などの撮影に必要となるパラメータを自動設定するとともに、被写体検出回路60で検出されたデジタル映像信号(1フレーム分)の輝度レベルの分布状態を補正係数設定回路516に送出する。
【0170】
このような構成からなる撮像機器によって、映像信号の輝度ムラを補正するときの処理過程について図を参照しながら説明する。
【0171】
まず、撮像部10のレンズを介して取り込んだ被写体からの光を、撮像素子を構成する各画素が電気信号に変換し、タイミングジェネレータ45で生成されるタイミング信号に従って各画素で変換した電気信号を順次取り込み、所定時間内でレンズを介し取り込んだ範囲(以下、フレームという)の映像を1フレーム分のアナログ映像信号としてS/H回路20に送出する。
【0172】
S/H回路20は、撮像部10から送られてくるアナログ映像信号をサンプリングしてAGC回路30に送出し、サンプリングした値をA/D変換回路40の処理が終了するまで保持し、この処理が終了すると次のサンプリング値をAGC回路30に送出する。
【0173】
AGC回路30は、S/H回路20でサンプリングされたアナログ映像信号を増幅し、A/D回路40によってAGC回路30で増幅されたアナログ映像信号をデジタル映像信号に変換してカメラ信号処理部50と被写体検出部60へ送出する。
【0174】
被写体検出部60では、デジタル映像信号(1フレーム分)の輝度レベルの分布状態を検出して撮影パラメータ設定回路70に送り、撮影パラメータ設定回路70は、この輝度レベルの分布状態をカメラ信号処理部50の補正係数設定回路516に送る。
【0175】
カメラ信号処理部50では、A/D回路40からのデジタル映像信号を映像信号補正回路510に送るとともに、タイミングジェネレータ45からのタイミング信号を取り込んでアドレスカウンタ518によりカウントしたカウント値をメモリ517に送り、メモリ517が送られてきたカウント値に基づいて図5に示すようなフレーム内の位置[x,y]に対応した画素の補正データGi[x,y]を乗算器519に送出するように指示する。
【0176】
また、カメラ信号処理部50の補正係数設定回路516では、撮影パラメータ設定回路70から送られてくる輝度レベルの分布状態に応じた補正係数Gh[all]を設定して乗算器519に送出する。
【0177】
そして、乗算器519は、数式4に示すように、補正係数設定回路516で設定した補正係数Gh[all]とメモリ517から送出されてくる補正データGi[x,y]とを乗算処理してシェーディング補正係数G[x,y]を算出する。
【0178】
【数6】
G[x,y] = Gi[x,y] × Gh[all]
【0179】
乗算器519で算出されたシェーディング補正係数G[x,y]は、LPF520に送られ、LPF520によりノイズの影響などを除去したり、映像信号全体に対してシェーディング補正係数G[x,y]による急激な変化を防ぐための調整がなされて映像信号補正回路510に送られる。
【0180】
映像信号補正回路510は、A/D回路40から送られてくるデジタル映像信号の輝度ムラをLPF520からのシェーディング補正係数G[x,y]基づいて補正してWB回路511へ送出する。
【0181】
そして、映像信号補正回路510で輝度ムラの補正処理が施こされたデジタル映像信号は、WB回路511でホワイトバランスの補正がなされ、続いて、γ補正回路512で階調の補正が行われ、色分離回路513で画素の補間処理を行いすべての画素についてRGB信号を得、このRGB信号をYC変換回路514で輝度信号(Y信号)と色差信号(Cb信号、Cr信号)に変換して後段回路へ出力される。
【0182】
このように、被写体検出回路や撮影パラメータ設定回路などの既存の回路を利用し、撮影した映像信号の輝度レベルに応じて、撮像素子を構成する画素による固定パターンノイズによる輝度ムラを含んだ補正を行うことができる。
【0183】
なお、上述した第1〜第4の実施例において、カラー映像を撮影する機器では、CCDなどの撮像素子にカラーフィルタが使われており、カラーフィルタにはR(赤)/G(緑)/B(青)の色を塗布され、各色に対して1つの画素が対応しているので、例えば、白い被写体を撮影した場合でも、これら3色のフィルタが異なる分光特性のために、映像信号の輝度レベルの分布状態は、各色のフィルタに対応する画素によって同じではなく、通常、G(緑)→R(赤)→B(青)の順に映像信号の輝度レベルが高い。即ち、それぞれの色フィルタに対応した画素の輝度レベルが高いことになる。
【0184】
したがって、R(赤)/G(緑)/B(青)の各色のフィルタに対応した補正データGi[d]又は補正データGi[x,y]をメモリに記憶しておき、補正係数設定回路は、各色の映像信号の輝度レベルに対応した補正係数G[d]又は補正係数G[x,y]を設定するようにすることで、RGBそれぞれの映像信号に対するシェーディング補正係数G[d]又はシェーディング補正係数G[x,y]が算出され、R(赤)/G(緑)/B(青)それぞれの映像信号の輝度レベル及び輝度ムラを補正する。
【0185】
また、上述した第1〜第4の実施例における撮像素子は、CCDだけではなく、CMOS(Complementary Metal Oxide Semiconductor)センサであっても、上述と同様の輝度ムラ補正を行うことができる。
【0186】
【発明の効果】
以上説明したように、撮影した映像信号の輝度レベルを検出し、検出した輝度レベルに応じた輝度レベルの補正係数を設定し、設定した補正係数と予めメモリなどに記憶してある輝度レベルの補正データとに基づいて、撮影した映像信号の輝度レベルを補正するので、撮影した映像信号に応じた輝度レベルの補正を行うことができ、且つ、レンズや撮像素子などに起因する輝度ムラを効果的に除去することができるという極めて優れた効果を奏するものである。
【0187】
更に、映像信号ムラ補正によって生じるレンズの周辺部分のノイズが強調されてしまうのを防ぐことが可能になるとともに、輝度レベルが低い被写体を撮影したとき、レンズの周辺部分の映像が明るくなりすぎて不自然な映像になるのを防ぐことができる。
【0188】
また、映像信号の輝度レベルに適応して輝度ムラの補正を行うことが可能であるため、シャッタースピードなどの撮影条件に応じた補正データを別途用意する必要がなく、メモリ容量や回路規模を削減することができる。
【0189】
加えて、被写体の照度が暗い場合のS/N比が改善されるので、より暗い被写体照度での撮影が可能になるというメリットもある。
【図面の簡単な説明】
【図1】本発明に係る第1の実施例の撮像機器における輝度ムラ補正の主要部を略示的に示したブロック図である。
【図2】図1に示す撮像機器が有する補正係数Ghのテーブルについて説明するための説明図である。
【図3】図1に示す撮像機器におけるレンズ(フレーム)の光軸中心からの距離[d]について説明するための説明図である。
【図4】本発明に係る第2の実施例の撮像機器における輝度ムラ補正の主要部を略示的に示したブロック図である。
【図5】図4に示す撮像機器における補正係数Gh[all]の設定について説明するための説明図である。
【図6】本発明に係る第3の実施例の撮像機器における輝度ムラ補正の主要部を略示的に示したブロック図である。
【図7】図6に示す撮像機器におけるレンズ(フレーム)における位置[x,y]について説明するための説明図である。
【図8】本発明に係る第4の実施例の撮像機器における輝度ムラ補正の主要部を略示的に示したブロック図である。
【図9】レンズの光軸中心からの距離と映像信号の輝度レベルの関係を略示的に示したグラフである。
【図10】レンズの位置と各画素における映像信号の輝度レベルの関係を示すグラフである。
【図11】従来技術の撮像機器における輝度ムラ補正の主要部を略示的に示したブロック図である。
【図12】図11に示す撮像機器において、レンズの中心点からの距離[d]に応じて輝度レベルの補正を行うときの補正データの設定について説明するための説明図である。
【図13】輝度レベルが大きい(被写体の輝度が高い)映像信号と輝度レベルが低い(被写体の輝度が低い)映像信号との比較を略示的に示した説明図である。
【図14】レンズの中心点からの距離[d]に応じて図13に示す映像信号の輝度レベルを補正した場合の説明図である。
【図15】固定パターンノイズを考慮したときのレンズの位置と各画素における映像信号の輝度レベルの関係を示すグラフである。
【図16】固定パターンノイズを考慮して輝度レベルが大きい(被写体の輝度が高い)映像信号と輝度レベルが低い(被写体の輝度が低い)映像信号を補正した場合についての説明図である。
【符号の説明】
10;撮像部、20;S/H(Sample/Hold)回路、30;AGC(Automatic Gain Control)回路、40;A/D(Analog/Digital)変換回路、45;タイミングジェネレータ、50;カメラ信号処理部、510;映像信号ムラ補正回路、511;WB(ホワイトバランス)回路、512;γ補正回路、513;色分離回路、514;YC変換回路、515;レベル検出回路、516;補正係数設定回路、517;メモリ、518;アドレスカウンタ、519;乗算器、520;LPF(Low PassFilter)、521;距離算出回路、60;被写体検出回路、70;撮影パラメータ設定回路
10a;撮像部、20a;S/H(Sample/Hold)回路、30a;AGC(Automatic Gain Control)回路、40a;A/D(Analog/Digital)変換回路、50a;カメラ信号処理部、510a;映像信号ムラ補正回路、511a;WB(ホワイトバランス)回路、512a;γ補正回路、513a;色分離回路、514a;YC変換回路、515a;レベル検出回路、517a;メモリ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging device capable of correcting luminance unevenness according to a luminance level of a captured video signal.
[0002]
[Prior art]
2. Description of the Related Art In an imaging device such as a digital still camera or a video camera, light from a subject input via a lens is converted into an electric signal by an imaging device such as a CCD (Charge Coupled Device), and the signal is further converted into a digital signal. The signal processing unit corrects the white balance and gradation and converts it into RGB (red / green / blue) signals, and converts the RGB signals into a luminance signal (Y) and color difference signals (Cb, Cr). ) Is generated for one frame.
[0003]
However, unevenness (hereinafter referred to as uneven brightness) occurs in the distribution of the brightness level in the video signal in one frame due to the characteristics of the lens and the image sensor of the imaging device.
[0004]
The uneven brightness caused by the lens characteristics is caused by a difference in the light amount between the central portion and the peripheral portion of the lens due to a decrease in the amount of incident light as the distance from the center of the lens decreases.
[0005]
FIG. 9 schematically shows the relationship between the distance of the lens from the optical axis center and the luminance level of the video signal. As the distance from the optical axis center of the lens increases, the amount of incident light (video signal level) increases. Is reduced, that is, in a captured one-frame video, the peripheral portion of the frame looks darker than the central portion, which greatly affects the image quality.
[0006]
In addition, luminance unevenness caused by an image sensor is uneven luminance caused by different incident angles of light with respect to a lens attached to an opening of each pixel (cell) constituting an image sensor such as a CCD. When light enters the pixel (cell) perpendicularly, a sufficient amount of light can be obtained, but as the angle of incidence of light changes (the angle increases) as the distance from the center of the lens increases, the pixel (cell) This is caused by a decrease in the amount of light incident on ()).
[0007]
FIG. 10 is a graph showing the relationship between the position of the lens and the luminance level of the video signal at each pixel. The amount of light decreases as the distance from the optical axis center of the lens increases. Since the luminance level decreases, the luminance level of the video signal decreases as the distance from the center of the lens increases, which causes luminance unevenness in the video signal of one frame.
[0008]
Such luminance unevenness can be reduced by improving the lens characteristics, but it is costly and may not be able to be completely corrected, and is usually corrected by the video signal processing unit.
[0009]
Here, a specific operation of the brightness unevenness correction processing of the video signal processing unit in the related art will be described with reference to the drawings.
[0010]
For example, as shown in the block diagram of FIG. 11, the main components related to the video signal processing include an imaging unit 10a, an S / H (Sample / Hold) circuit 20a, an AGC (Automatic Gain Control) circuit 30a, and an A / A It includes a D (Analog / Digital) conversion circuit 40a, a camera signal processing unit 50a, and the like.
[0011]
The camera signal processing unit 50a includes a video signal unevenness correction circuit 510a, a WB (white balance) circuit 511a, a γ correction circuit 512a, a color separation circuit 513a, a YC conversion circuit 514a, a memory 517a, and the like.
[0012]
In such a configuration, light from a subject is input through a lens of the imaging unit 10a, is converted into an electric signal by each pixel constituting an imaging device such as a CCD, and is converted into an S / H circuit 20a, an AGC circuit 30a, A It is converted to a digital video signal via the / D conversion circuit 40a and sent to the camera signal processing unit 50a.
[0013]
Then, the camera signal processing unit 50a corrects the luminance unevenness of the digital video signal input by the video signal correction circuit 510a using the correction data for the luminance correction stored in the memory 517a, and the white balance is output by the WB circuit 511a. Is adjusted (white correction), the tone is corrected by the γ correction circuit 512a, the pixel is interpolated by the color separation circuit 513a, and RGB signals are obtained for all the pixels. Then, the luminance signal (YC) is output by the YC conversion circuit 514a. Y) and color difference signals (Cb, Cr).
[0014]
Here, the correction data stored in the memory 517a is a distribution of luminance levels in a video signal obtained by photographing a colorless and high-luminance subject (white paper, light box, etc.), and measures the measured luminance level. Is calculated by the following equation (A) or (B) according to the distance [d] from the lens center point and the lens position [x, y] based on the distribution state of.
[0015]
Gi [d] = L [0] / L [d] (A)
[0016]
Note that L [0] is the luminance level of the optical axis center point (d = 0), and L [d] is the luminance level of the video signal at a distance [d] from the optical axis center point of the lens.
[0017]
Gi [x, y] = L [0,0] / L [x, y] (B)
[0018]
[X, y]; position corresponding to the lens, L [x, y]; luminance level of the video signal at position [x, y], L [0, 0]; y] = [0,0]).
[0019]
Then, the correction data Gi [d] or the correction data Gi [x, y] obtained using the mathematical formula (A) or the mathematical formula (B) are recorded in the memory 517a in advance at the time of factory shipment or the like.
[0020]
The camera signal processing circuit 50a corrects the luminance level of the photographed video signal using the correction data Gi [d] or the correction data Gi [x, y] recorded in the memory 517a, so that the position with respect to the lens and the position of the lens are corrected. The luminance level is corrected according to the distance from the center point.
[0021]
When the correction of the luminance level is performed according to the distance [d] from the center point of the lens (when the correction data Gi [d] is used), the circuit is simplified as shown in the graph of FIG. By setting the correction data Gi [d] to increase by a predetermined value each time the distance from the center point of the lens increases, it is also possible to correct the luminance without using a memory.
[0022]
In addition, when performing correction according to the position [x, y] of the lens (when using the correction data Gi [x, y]), the characteristics of the color filter on each pixel (cell) constituting the image sensor are not uniform. It is also possible to correct luminance unevenness caused by such factors as variation in characteristics caused in the manufacturing stage of pixels (cells) and luminance unevenness caused by pixel arrangement, so-called fixed pattern noise.
[0023]
In such luminance unevenness correction processing, since the luminance level of the video signal generally decreases more in the peripheral portion of the lens, the correction data in the peripheral portion of the lens is set to a larger value than the correction data in the central portion of the lens. ing. Therefore, the noise is amplified to the luminance level of the noise around the lens.
[0024]
Further, the correction data recorded in the memory is calculated based on a video signal when a colorless and high-luminance subject is photographed. When the brightness is dark (dark), the value of the correction data is too large (too strong), and the image at the peripheral portion of the lens becomes too bright than the central portion, which may result in an unnatural image.
[0025]
This becomes remarkable when an image of a subject whose periphery is dark is to be photographed. The reason for this is that the lower the luminance level, the more the video signal from an image sensor such as a CCD is more susceptible to noise components, and the human eye is more likely to notice noise in darker areas than in bright areas. Because it is.
[0026]
Furthermore, the lower the luminance level of the video signal is, the lower the S / N ratio is, and the more noise components are included. Therefore, the noise components that existed uniformly in the video signal (for one frame) before the correction become the lens components after the correction. In some cases, only the noise component in the peripheral portion is increased, and the noise in the peripheral portion of the lens, which was originally large, is further emphasized, thereby deteriorating the image quality.
[0027]
Further, the variation state of the luminance level in the video signal for one frame also depends on the luminance level of the video signal. When a high-luminance subject is photographed, the variation of the luminance level in the video signal in one frame is large, and the variation decreases as the luminance level of the subject decreases.
[0028]
For example, in the video signal A and the video signal B shown in FIG. 13, since the video signal A has a higher luminance level (the luminance of the subject is higher), the luminance level of the video signal in one frame greatly varies (luminance unevenness occurs). Large), and the video signal B has a lower luminance level (lower luminance of the subject), so that the noise component is larger.
[0029]
Here, the case where the luminance level of the video signal A and the video signal B shown in FIG. 13 is corrected according to the distance [d] from the center point of the lens (when the correction data Gi [d] is used) is referred to FIG. It will be explained while doing so.
[0030]
The video signal A and the video signal B take values of luminance levels as shown in the table of FIG. 14B according to the distance 0 to 10 from the center of the lens (optical axis). 14A, the luminance level decreases as the distance from the center of the lens (optical axis) increases, as indicated by the solid line in FIG.
[0031]
Further, as the value of the correction data (correction coefficient), a value obtained by the above equation (A) based on a video signal obtained by photographing a colorless and high-luminance subject is stored in the memory in advance. .
[0032]
Then, when the luminance levels of the video signal A and the video signal B are corrected by the correction data (correction coefficient), the luminance level of the peripheral portion of the lens that is lower than the center point of the (optical axis) of the lens becomes a dotted line in FIG. The correction is made as shown in the graph shown by.
[0033]
The video signal A is a video signal obtained by capturing a high-luminance subject, and the correction data (correction coefficient) is a value obtained based on the video signal obtained by capturing the colorless and high-luminance subject. The brightness is corrected to a uniform brightness level from the center to the periphery, and brightness unevenness is almost eliminated.
[0034]
On the other hand, since the video signal B is a video signal obtained by photographing a low-luminance subject, the value of the correction data is too large with respect to the luminance level of the peripheral portion of the lens. The brightness level becomes high.
[0035]
In addition, in practice, due to variations in characteristics that occur during the manufacturing stage of each pixel (cell) constituting the image sensor and non-uniform characteristics of the color filters on the pixels (cells), the above-described FIGS. As the distance from the (optical axis) center point of such a lens increases, the luminance level does not decrease, but as shown in FIG. 15, the luminance level varies due to the characteristics and arrangement (position) of each pixel. In addition, a unique pattern for each image sensor (each device), that is, a so-called fixed pattern noise appears.
[0036]
Therefore, since the variation in the luminance level of the video signal is not proportional to the distance from the center of the lens, it is necessary to perform correction for each pixel according to the position [x, y] of the lens.
[0037]
A case where the luminance level is corrected for each pixel according to such a lens position [x, y] (a case where correction data Gi [x, y] is used) will be described.
[0038]
A video signal A and a video signal B (solid line) shown in FIG. 16 are video signals when the effect of fixed pattern noise is added, and a certain one line (one column or one row of pixels) in one frame of the video signal 3 shows the state of the luminance level.
[0039]
The video signal A and the video signal B take luminance level values as shown in the table of FIG. 16B in a range of ± 60 from the center of the lens (optical axis), and are represented by graphs. As shown in the solid line in FIG. 16A, the luminance level varies for each pixel depending on the characteristics of the pixel and the distance from the center of the (optical axis) of the lens.
[0040]
Further, as the value of the correction data (correction coefficient), the value obtained by the above equation (B) based on the video signal obtained by photographing the colorless and high-luminance subject is stored in the memory in advance. .
[0041]
Then, when the luminance levels of the video signal A and the video signal B are corrected by the correction data (correction coefficient), they are corrected as indicated by the dotted lines in the graph of FIG.
[0042]
The video signal A is a video signal obtained by capturing a high-luminance subject, and the correction data (correction coefficient) is a value obtained based on a video signal obtained by capturing a colorless and high-luminance subject. Is corrected to a uniform luminance level, and luminance unevenness is almost eliminated.
[0043]
On the other hand, since the video signal B is a video signal of a low-luminance subject, the value of the correction data for a certain pixel may be too large (for example, when the distance [d] from the lens center is “-20”). (A correction value of a pixel), and the luminance level around this pixel becomes significantly higher than the luminance levels of other pixels, resulting in an unnatural image.
[0044]
Therefore, the correction of the luminance of the central portion and the peripheral portion of the image caused by the lens is corrected by the correction data created based on the image data obtained by photographing the solid white reference subject with uniform brightness over the entire surface. Reference 1) Sensitivity of an image sensor by changing at least one of correction data for columns and rows of an image captured by an image sensor in which pixels are two-dimensionally arranged according to the position of a pixel of interest. (See, for example, Patent Document 2), contour enhancement processing is performed together with shading correction processing, and luminance unevenness is improved by weakening contour enhancement of an image in a peripheral portion of a lens (for example, Patent Document 3). And other methods and devices have been devised.
[0045]
[Patent Document 1]
JP 2001-21456 A (pages 2-4, FIG. 1)
[Patent Document 2]
JP 2001-16509 A (page 5-8, FIG. 1)
[Patent Document 3]
JP 2001-167263 A (page 5-8, FIG. 1)
[0046]
[Problems to be solved by the invention]
As described above, the decrease in the luminance level of the video signal is proportional to the distance from the center of the optical axis of the lens, but is not necessarily symmetrical in the horizontal and vertical directions. For this reason, when the correction is performed only with the distance information from the center of the optical axis of the lens, there is a problem that the brightness of the corrected image differs depending on the direction.
[0047]
On the other hand, for uneven brightness caused by uneven application of color filters during the manufacture of imaging devices such as CCDs, a table with correction coefficients for each pixel is created, and the relationship between each pixel and lens position is checked for each pixel. It is necessary to correct the luminance level, but when using correction data created based on a video signal of a colorless and high-luminance subject at the time of correction, the correction gain is too large in a dark part with relatively much noise As a result, there is a problem that the fixed pattern noise is further emphasized.
[0048]
Further, with the miniaturization of the pixel (cell) size, when a pigment is used as a color filter material, a problem that luminance unevenness caused by the size of the pigment particles cannot be ignored is corrected. Removal) is becoming important.
[0049]
In addition, when the luminance enhancement is improved by performing the contour enhancement processing together with the shading correction processing, two correction data (table) for correcting the luminance unevenness of the video signal and the contour correction are required, so that the circuit scale becomes large and the processing becomes large. Is also complicated.
[0050]
Therefore, there is a method of switching the correction data (table) used for the correction based on the setting information (shutter speed, exposure, etc.) of the imaging device at the time of shooting, but the control is complicated and the captured video signal (1 There is a problem that it is not possible to correct luminance unevenness in accordance with the distribution state of the luminance level in (the frame).
[0051]
Therefore, it is necessary to solve the problem that the luminance level can be adjusted according to the distribution state of the luminance level in the photographed video signal and that the luminance unevenness caused by the lens and the image sensor can be corrected. Have issues that must be met.
[0052]
[Means for Solving the Problems]
In order to solve the above-mentioned problems, an imaging device according to the present invention has the following configuration.
[0053]
(1) Imaging means including an image sensor composed of a plurality of pixels for converting light incident from a lens as a video signal, and a luminance level of the video signal converted by each pixel constituting the image sensor In order to correct the image signal, a recording unit in which correction data calculated based on a video signal obtained by capturing an image of a reference subject by the imaging unit is recorded, and a luminance level of the video signal converted by the imaging unit is detected. Level detecting means for performing, and a correction coefficient setting means for setting a predetermined correction coefficient for correcting the luminance level of the video signal converted by the imaging means according to the luminance level of the video signal detected by the level detecting means. The luminance level of the video signal converted by the imaging means based on the predetermined correction coefficient set by the correction coefficient setting means and the correction data recorded in the recording means. Imaging device, characterized in that it comprises a positive luminance nonuniformity correction unit.
(2) The correction data of the recording means is correction data calculated based on a video signal at the time of capturing an image of the reference subject with reference to a center point of the lens and according to a distance from the center point. The imaging device according to (1), wherein:
(3) The correction data of the recording means is based on a video signal when the subject as the reference is imaged, with the center point of the lens as a reference, and the image sensor based on positional information from the center point. (1). The imaging device according to (1), wherein the correction data is correction data calculated for each of the pixels constituting the image data.
(4) The correction coefficient setting means, when converting the video signal imaged by the imaging means into RGB signals, and processing the converted signals, a predetermined correction coefficient corresponding to each of the R, G, B signals (1). The imaging device according to (1), wherein
(5) The imaging device according to (1), wherein the correction coefficient setting unit can set a predetermined correction coefficient for each pixel constituting the image sensor.
[0054]
With such a configuration, the luminance level of the video signal converted by the imaging unit is detected by the level detection unit, and the correction coefficient setting unit sets a predetermined correction coefficient in accordance with the detected luminance level, thereby correcting the luminance unevenness. Means for correcting the luminance level of the video signal converted by the imaging means based on the correction coefficient set by the correction coefficient setting means and the correction data recorded in the recording means. To correct the luminance level and to correct luminance unevenness caused by the lens and the image sensor.
[0055]
BEST MODE FOR CARRYING OUT THE INVENTION
Next, an embodiment of an imaging device according to the present invention will be described with reference to the drawings. However, the drawings are for explanation only, and do not limit the technical scope of the present invention.
[0056]
First, a first embodiment of an imaging device according to the present invention will be described with reference to FIG.
[0057]
FIG. 1 is a block diagram schematically showing a configuration of a main portion of a video signal for correcting unevenness in luminance of a video signal, and includes an imaging unit 10, an S / H (Sample / Hold) circuit 20, an AGC ( An automatic gain control (AT) circuit 30, an analog / digital (A / D) conversion circuit 40, a timing generator 45, a camera signal processing unit 50, and the like are provided.
[0058]
The imaging unit 10 includes a lens and an imaging element configured by arranging a plurality of pixels (for example, a CCD (Charge Coupled Device)) for converting incident light into an electric signal.
[0059]
Then, each pixel constituting the image sensor converts the light from the subject taken in through the lens into an electric signal, and sequentially takes in the electric signal converted by each pixel according to the timing signal generated by the timing generator 45, and An image in a range (hereinafter, referred to as a frame) captured through a lens in time is transmitted to the S / H circuit 20 as an analog video signal for one frame.
[0060]
The S / H circuit 20 has an input side connected to the imaging unit 10 and an output side connected to the AGC circuit 30, samples an analog video signal sent from the imaging unit 10, sends it to the AGC circuit 30, and outputs the sampled value. The data is held until the processing of the A / D conversion circuit 40 ends, and when this processing ends, the next sampling value is sent to the AGC circuit 30.
[0061]
The AGC circuit 30 has an input side connected to the S / H circuit 20 and an output side connected to the A / D conversion circuit 40, amplifies the analog video signal sampled by the S / H circuit 20, and Send to
[0062]
The A / D circuit 40 has an input side connected to the AGC circuit 30 and an output side connected to the camera signal processing unit 50, converts an analog video signal amplified by the AGC circuit 30 into a digital video signal, and sends the digital video signal to the camera signal processing unit 50. Send out.
[0063]
The timing generator 45 generates a timing signal serving as a reference for taking in the electric signal converted by each pixel constituting the image sensor of the image pickup unit 10 and sends it to the image pickup unit 10, and at the same time, an address counter of the camera signal processing unit 50. The same timing signal is sent to 518.
[0064]
The camera signal processing unit 50 includes a video signal correction circuit 510, a WB (white balance) circuit 511, a γ (gamma) correction circuit 512, a color separation circuit 513, a YC conversion circuit 514, a level detection circuit 515, a correction coefficient setting circuit 516, It is composed of a memory 517, an address counter 518, a multiplier 519, an LPF (Low Pass Filter) 520, an optical axis distance calculation circuit 521, etc., and a predetermined signal for a digital video signal sent from the A / D conversion circuit 40. The signal is processed, converted into a luminance signal (Y signal) and a color difference signal (Cb signal, Cr signal) and output.
[0065]
The circuits 510 to 521 constituting the camera signal processing unit 50 have the following functions.
[0066]
The video signal correction circuit 510 corrects the unevenness of the luminance signal level in the digital video signal sent from the A / D circuit 40 based on a shading correction coefficient G [d] (described later) and sends it to the WB circuit 511. .
[0067]
A WB (white balance) circuit 511 can correctly photograph white of the digital video signal subjected to the luminance unevenness correction processing by the video signal correction circuit 510 according to the color temperature that changes depending on the state of the light source in the photographing environment. That is, the so-called white balance correction is performed, and the result is sent to the γ correction circuit 512.
[0068]
The γ (gamma) correction circuit 512 corrects the gradation of the digital video signal subjected to the white balance correction processing in the WB circuit 511, that is, performs so-called γ correction, and sends the signal to the color separation circuit 513.
[0069]
The color separation circuit 513 performs interpolation of the digital video signal that has been subjected to the γ correction processing by the γ correction circuit 512, and is provided at a position where pixel data of R (red), G (green), and B (blue) does not exist. , And performs an interpolation process on the RGB signals in step (1), and sends the result to the YC conversion circuit 514.
[0070]
Specifically, for example, when an image sensor having a primary G color checkerboard and an R / B line sequential color filter array is used, only one of R, G, and B color signals exists at each pixel position. . In order to generate a luminance signal and a color difference signal for each pixel, R, G, and B signals are required at all pixel positions. This is a circuit for performing processing for obtaining RGB signals for pixels.
[0071]
The YC conversion circuit 514 converts the RGB signals interpolated by the color separation circuit 513 into a luminance signal (Y signal) and color difference signals (Cb signal, Cr signal) and outputs them.
[0072]
The level detection circuit 515 detects the luminance level of the digital video signal sent from the A / D circuit 40 and sends it to the correction coefficient setting circuit 516.
[0073]
The correction coefficient setting circuit 516 sets a correction coefficient Gh [In] for correcting luminance according to the luminance level of the digital video signal detected by the level detection circuit 515, and multiplies by the set correction coefficient Gh [In]. To the device 519.
[0074]
The memory 517 stores an image of a reference subject (for example, a colorless subject having a high luminance level and a colorless subject) based on the distribution of luminance levels in a video signal obtained from the image signal. The correction data Gi [d] of the luminance level calculated according to the distance is stored, and the correction data Gi [d corresponding to the distance [d] from the optical axis center of the lens indicated by the optical axis distance calculation circuit 521 is stored. ] To the multiplier 519.
[0075]
The address counter 518 fetches and counts the timing signal of the timing generator 45, and sends the count value to the optical axis distance calculation unit 521.
[0076]
The count value is a value that can determine at which position in the video (signal) of one frame captured by the imaging unit 10 the video signal has been processed by the pixel arranged, that is, the pixel value The value is a value corresponding to the arranged position.
[0077]
The optical axis distance calculation circuit 521 calculates the distance [d] from the optical axis center of the lens of the imaging unit 10 based on the count value from the address counter 518, and corresponds to the distance [d] calculated for the memory 517. To output the correction data Gi [d] to be output.
[0078]
The multiplier 519 multiplies the correction coefficient Gh [In] set by the correction coefficient setting circuit 516 by the correction data Gi [d] output from the memory 517, and calculates a correction value and a shading correction coefficient G. [d] is output to the LPF 520.
[0079]
An LPF (Low Pass Filter) 520 is sent from the multiplier 519 to remove the influence of noise and the like and to prevent the luminance of the video signal photographed by the correction using the shading correction coefficient G [d] from changing abruptly. The incoming shading correction coefficient G [d] is adjusted to a predetermined value and sent to the video signal correction circuit 510.
[0080]
A process of correcting uneven brightness of a video signal by the imaging device having the above configuration will be described with reference to the drawings.
[0081]
First, each pixel constituting the image sensor converts light from a subject captured through the lens of the imaging unit 10 into an electric signal, and converts the electric signal converted by each pixel according to a timing signal generated by the timing generator 45. The video is sequentially captured, and a video in a range (hereinafter, referred to as a frame) captured via a lens within a predetermined time is transmitted to the S / H circuit 20 as an analog video signal for one frame.
[0082]
The S / H circuit 20 samples the analog video signal sent from the imaging unit 10, sends it to the AGC circuit 30, and holds the sampled value until the processing of the A / D conversion circuit 40 is completed. Is completed, the next sampling value is sent to the AGC circuit 30.
[0083]
The AGC circuit 30 amplifies the analog video signal sampled by the S / H circuit 20, converts the analog video signal amplified by the AGC circuit 30 by the A / D circuit 40 into a digital video signal, and converts the analog video signal into a digital video signal. Send to
[0084]
The camera signal processing unit 50 sends the digital video signal from the A / D circuit 40 to the video signal correction circuit 510 and the level detection circuit 515.
[0085]
The level detection circuit 515 detects the luminance level of the transmitted digital video signal and sends it to the correction coefficient setting circuit 516. The correction coefficient setting circuit 516 outputs the correction coefficient Gh [In] according to the detected luminance level. Set and send to multiplier 519.
[0086]
More specifically, the correction coefficient setting circuit 14 divides the luminance level of the digital video signal into several stages, and has a table in which a predetermined correction coefficient Gh [In] is set in each stage. A predetermined correction coefficient Gh [In] is set with reference to this table according to the luminance level detected in 515.
[0087]
For example, as shown in FIG. 2, when the luminance level of the digital video signal detected by the level detection circuit 515 is in the range of 0 to 255, and when the luminance level is “0 to 64”, the correction coefficient Gh [In ] Is “5/8”, the correction coefficient Gh [In] is “6/8” when the luminance level is “65 to 128”, and the correction coefficient Gh [In] is “6/8” when the luminance level is “129 to 192”. When “7/8” and the luminance level are “193 to 255”, the correction coefficient Gh [In] is set to “8/8”. It is to be noted that more detailed control is possible by having a large table in which the level is divided more finely.
[0088]
On the other hand, the address counter 518 fetches the timing signal from the timing generator 45 and sends the counted value to the optical axis distance calculation circuit 521, and the image (for one frame) captured by the imaging unit 10 by the optical axis distance calculation circuit 521. Signal), and the distance [d] from the optical axis center point of the lens (frame) of the imaging unit 10 as shown in FIG. 3 is calculated based on the determined position information. Then, it instructs the memory 517 to transmit the correction data Gi [d] corresponding to the distance [d] to the multiplier 519.
[0089]
Then, the multiplier 519 multiplies the correction coefficient Gh [In] set by the correction coefficient setting circuit 516 by the correction data Gi [d] sent from the memory 517 to obtain a shading correction coefficient G [d]. Is calculated.
[0090]
Here, the value of the correction data Gi [d] stored in the memory 517 is closer to “1” toward the center of the lens and becomes larger than “1” toward the periphery of the lens. When the luminance unevenness occurs due to the color filter described above, the luminance may be higher (brighter) than the central portion of the lens which is the reference for the correction, and the value of the correction data Gi [d] is “1” or less. It may be.
[0091]
In consideration of such a case, the multiplier 519 calculates the equation 1 when the value of the correction data Gi [d] is smaller than “1”, and sets the equation 1 when the value of the correction data Gi [d] is larger than “1”. The shading correction coefficient G [d] is calculated by Expression 2.
[0092]
(Equation 1)
G [d] = (1-Gi [d]) × Gh [In]; When Gi [d] <1
[0093]
(Equation 2)
G [d] = (Gi [d] −1) × Gh [In]; When Gi [d]> 1
[0094]
The shading correction coefficient G [d] calculated by the multiplier 519 is sent to the LPF 520 to remove the influence of noise and the like by the LPF 520 and to prevent a sudden change in the entire video signal due to the shading correction coefficient G [d]. Is adjusted and sent to the video signal correction circuit 510.
[0095]
The video signal correction circuit 510 corrects luminance unevenness of the digital video signal sent from the A / D circuit 40 based on the shading correction coefficient G [d] from the LPF 520 and sends the corrected signal to the WB circuit 511.
[0096]
The digital video signal that has been subjected to the luminance unevenness correction processing by the video signal correction circuit 510 is subjected to white balance correction by the WB circuit 511, and then subjected to gradation correction by the γ correction circuit 512, The RGB signals interpolated by the color separation circuit 513 are converted into a luminance signal (Y signal) and a color difference signal (Cb signal, Cr signal) by a YC conversion circuit 514 and output to a subsequent circuit.
[0097]
In this way, based on the luminance level of the captured video signal, it is possible to appropriately correct the luminance unevenness according to the distance [d] from the center of the optical axis of the lens.
[0098]
Next, a second embodiment will be described with reference to FIG.
[0099]
Similar to the first embodiment (see FIG. 7), the same is true in that the luminance unevenness of the video signal is corrected in accordance with the distance [d] from the center of the lens, but it is provided in a general imaging device. A description will be given of a case where unevenness of luminance is corrected by using a shooting parameter setting circuit that automatically sets parameters required for shooting, such as a shutter speed and an exposure.
[0100]
As shown in FIG. 4, main parts for correcting uneven brightness in such an imaging device include an imaging unit 10, an S / H (Sample / Hold) circuit 20, an AGC (Automatic Gain Control) circuit 30, and an A / It includes a D (Analog / Digital) conversion circuit 40, a timing generator 45, a camera signal processing unit 50, a subject detection circuit 60, a shooting parameter setting circuit 70, and the like.
[0101]
Next, functions of each circuit and the like will be described. The imaging unit 10, an S / H (Sample / Hold) circuit 20, an AGC (Automatic Gain Control) circuit 30, an A / D (Analog / Digital) conversion circuit 40, a timing The function of the generator 45 is the same as that of the first embodiment, and the description thereof is omitted.
[0102]
The camera signal processing unit 50 includes a video signal correction circuit 510, a WB (white balance) circuit 511, a γ (gamma) correction circuit 512, a color separation circuit 513, a YC conversion circuit 514, a correction coefficient setting circuit 516, a memory 517, and an address counter. 518, a multiplier 519, an LPF (Low Pass Filter) 520, an optical axis distance calculation circuit 521, and the like.
[0103]
Next, the function of each of the circuits 510 to 521 constituting the camera signal processing unit 50 will be described. The video signal correction circuit 510 other than the correction coefficient setting circuit 516, the WB circuit 511, the γ correction circuit 512, and the color separation circuit 513 , The YC conversion circuit 514, the memory 517, the address counter 518, the multiplier 519, the LPF 520, and the optical axis distance calculation circuit 521, which have the same functions as those of the above-described first embodiment, and a description thereof will be omitted.
[0104]
The correction coefficient setting circuit 516 of the camera signal processing unit 50 controls the entire digital video signal based on the distribution state of the luminance level of the video signal (for one frame) detected by the subject detection circuit 60 under the control of the shooting parameter setting circuit 70. A correction coefficient Gh [all] for appropriately correcting the luminance of is set.
[0105]
As shown in FIG. 5, the value of the correction coefficient Gh [all] is set by decreasing the value of Gh [all] when photographing a subject with low luminance and increasing the value of Gh [all] when photographing a subject with high luminance. In addition, it is possible to suppress an increase in noise when the luminance is low, that is, when photographing a dark subject, and an increase in the luminance around the lens more than necessary.
[0106]
The subject detection circuit 60 detects the distribution state of the luminance level of the video signal (for one frame) sent from the A / D circuit 40 and sends it to the imaging parameter setting circuit 70.
[0107]
The photographing parameter setting circuit 70 controls the AGC circuit 30 and the WB circuit 511 to automatically set parameters necessary for photographing, such as a shutter speed and an exposure, and also sets an entire digital video signal detected by the subject detecting circuit 60 ( The distribution state of the luminance level (for one frame) is sent to the correction coefficient setting circuit 516.
[0108]
A process of correcting uneven brightness of a video signal by the imaging device having the above configuration will be described with reference to the drawings.
[0109]
First, each pixel constituting the image sensor converts light from a subject captured through the lens of the imaging unit 10 into an electric signal, and converts the electric signal converted by each pixel according to a timing signal generated by the timing generator 45. The video is sequentially captured, and a video in a range (hereinafter, referred to as a frame) captured via a lens within a predetermined time is transmitted to the S / H circuit 20 as an analog video signal for one frame.
[0110]
The S / H circuit 20 samples the analog video signal sent from the imaging unit 10, sends it to the AGC circuit 30, and holds the sampled value until the processing of the A / D conversion circuit 40 is completed. Is completed, the next sampling value is sent to the AGC circuit 30.
[0111]
The AGC circuit 30 amplifies the analog video signal sampled by the S / H circuit 20, converts the analog video signal amplified by the AGC circuit 30 by the A / D circuit 40 into a digital video signal, and converts the analog video signal into a digital video signal. Is sent to the subject detection unit 60.
[0112]
The subject detection unit 60 detects the distribution state of the luminance level of the digital video signal (for one frame) and sends it to the photographing parameter setting circuit 70. The photographing parameter setting circuit 70 converts the distribution state of the luminance level into a camera signal processing unit. 50 to the correction coefficient setting circuit 516.
[0113]
In the camera signal processing unit 50, the digital video signal from the A / D circuit 40 is sent to the video signal correction circuit 510, and the timing signal sent from the timing generator 45 is fetched and counted by the address counter 518. It is determined which position of the image (signal) of one frame captured by the imaging unit 10 is being processed, and a lens (frame) of the imaging unit 10 as shown in FIG. 3 based on the determined position information. Is calculated from the center of the optical axis, and the memory 517 is instructed to transmit the correction data Gi [d] corresponding to the distance [d] to the multiplier 519.
[0114]
The correction coefficient setting circuit 516 of the camera signal processing unit 50 sets a correction coefficient Gh [all] according to the luminance level distribution state of the digital video signal (photographed subject) sent from the photographing parameter setting circuit 70. Is sent to the multiplier 519.
[0115]
Then, the multiplier 519 performs shading by multiplying the correction coefficient Gh [all] set by the correction coefficient setting circuit 516 by the correction data Gi [d] sent from the memory 517 as shown in Expression 3. A correction coefficient G [d] is calculated.
[0116]
[Equation 3]
G [d] = Gi [d] × Gh [all]
[0117]
The shading correction coefficient G [d] calculated by the multiplier 519 is sent to the LPF 520 to remove the influence of noise or the like by the LPF 520, or to perform a sudden change due to the shading correction coefficient G [d] on the entire video signal. The signal is adjusted to prevent it from being sent to the video signal correction circuit 510.
[0118]
The video signal correction circuit 510 corrects luminance unevenness of the digital video signal sent from the A / D circuit 40 based on the shading correction coefficient G [d] from the LPF 520 and sends the corrected signal to the WB circuit 511.
[0119]
The digital video signal that has been subjected to the luminance unevenness correction processing by the video signal correction circuit 510 is subjected to white balance correction by the WB circuit 511, and then subjected to gradation correction by the γ correction circuit 512, The RGB signals interpolated by the color separation circuit 513 are converted into a luminance signal (Y signal) and a color difference signal (Cb signal, Cr signal) by a YC conversion circuit 514 and output to a subsequent circuit.
[0120]
As described above, it is also possible to perform correction using an existing circuit such as a subject detection circuit and a shooting parameter setting circuit.
[0121]
Next, a third embodiment will be described with reference to FIG. In the first and second embodiments described above, the uneven brightness of the video signal is corrected according to the distance [d] from the center of the lens. However, as described above, the image sensor of the image pickup unit 10 is configured. Each pixel has variations in characteristics that occur during the manufacturing stage, and furthermore, uneven brightness occurs due to the positional relationship between the lens and the pixel.
[0122]
Therefore, a case in which luminance unevenness is corrected based on the positional relationship between the lens and the pixel will be described.
[0123]
FIG. 6 is a block diagram schematically showing a configuration of a main part of luminance unevenness correction in an imaging device. The imaging unit 10, an S / H (Sample / Hold) circuit 20, an AGC (Automatic Gain Control). The circuit 30 includes an A / D (Analog / Digital) conversion circuit 40, a timing generator 45, a camera signal processing unit 50, and the like.
[0124]
The imaging unit 10 includes a lens and an imaging element configured by arranging a plurality of pixels (for example, a CCD (Charge Coupled Device)) for converting incident light into an electric signal.
[0125]
Then, each pixel constituting the image sensor converts the light from the subject captured through the lens of the imaging unit 10 into an electric signal, and converts the electric signal converted by each pixel according to the timing signal generated by the timing generator 45. The video is sequentially captured, and a video in a range (hereinafter, referred to as a frame) captured via a lens within a predetermined time is transmitted to the S / H circuit 20 as an analog video signal for one frame.
[0126]
The S / H circuit 20 has an input side connected to the imaging unit 10 and an output side connected to the AGC circuit 30, samples an analog video signal sent from the imaging unit 10, sends it to the AGC circuit 30, and outputs the sampled value. The data is held until the processing of the A / D conversion circuit 40 ends, and when this processing ends, the next sampling value is sent to the AGC circuit 30.
[0127]
The AGC circuit 30 has an input side connected to the S / H circuit 20 and an output side connected to the A / D conversion circuit 40, amplifies the analog video signal sampled by the S / H circuit 20, and Send to
[0128]
The A / D circuit 40 has an input side connected to the AGC circuit 30 and an output side connected to the camera signal processing unit 50, converts an analog video signal amplified by the AGC circuit 30 into a digital video signal, and sends the digital video signal to the camera signal processing unit 50. Send out.
[0129]
The timing generator 45 generates a timing signal serving as a reference for taking in the electric signal converted by each pixel constituting the image sensor of the image pickup unit 10 and sends it to the image pickup unit 10, and at the same time, an address counter of the camera signal processing unit 50. The same timing signal is sent to 518.
[0130]
The camera signal processing unit 50 includes a video signal correction circuit 510, a WB (white balance) circuit 511, a γ (gamma) correction circuit 512, a color separation circuit 513, a YC conversion circuit 514, a level detection circuit 515, a correction coefficient setting circuit 516, It comprises a memory 517, an address counter 518, a multiplier 519, an LPF (Low Pass Filter) 520, etc., performs predetermined signal processing on the digital video signal sent from the A / D conversion circuit 40, and outputs a luminance signal ( (Y signal) and color difference signals (Cb signal, Cr signal).
[0131]
Each of the circuits 510 to 520 constituting the above-described camera signal processing unit 50 has the following functions.
[0132]
The video signal correction circuit 510 corrects unevenness of the luminance signal level in the digital video signal sent from the A / D circuit 40 based on a shading correction coefficient G [x, y] (described later) and sends the corrected signal to the WB circuit 511. Send out.
[0133]
A WB (white balance) circuit 511 can correctly photograph white of the digital video signal subjected to the luminance unevenness correction processing by the video signal correction circuit 510 according to the color temperature that changes depending on the state of the light source in the photographing environment. That is, the so-called white balance correction is performed, and the result is sent to the γ correction circuit 512.
[0134]
The γ (gamma) correction circuit 512 corrects the gradation of the digital video signal subjected to the white balance correction processing in the WB circuit 511, that is, performs so-called γ correction, and sends the signal to the color separation circuit 513.
[0135]
The color separation circuit 513 performs interpolation of the digital video signal that has been subjected to the γ correction processing by the γ correction circuit 512, and is provided at a position where pixel data of R (red), G (green), and B (blue) does not exist. , And performs an interpolation process on the RGB signals in step (1), and sends the result to the YC conversion circuit 514.
[0136]
Specifically, for example, when an image sensor having a primary G color checkerboard and an R / B line sequential color filter array is used, only one of R, G, and B color signals exists at each pixel position. . In order to generate a luminance signal and a color difference signal for each pixel, R, G, and B signals are required at all pixel positions. This is a circuit for performing processing for obtaining RGB signals for pixels.
[0137]
The YC conversion circuit 514 converts the RGB signals interpolated by the color separation circuit 513 into a luminance signal (Y signal) and color difference signals (Cb signal, Cr signal) and outputs them.
[0138]
The level detection circuit 515 detects the luminance level of the digital video signal sent from the A / D circuit 40 and sends it to the correction coefficient setting circuit 516.
[0139]
The correction coefficient setting circuit 516 sets a correction coefficient Gh [In] for correcting luminance according to the luminance level of the digital video signal detected by the level detection circuit 515, and multiplies by the set correction coefficient Gh [In]. To the device 519.
[0140]
The memory 517 performs processing (conversion) for each pixel constituting the image sensor of the imaging unit 10 based on a video signal obtained when an image of a reference subject (for example, a colorless subject having a high luminance level) is captured. The luminance level of the video signal is obtained, and correction data Gi [x, y] for each pixel calculated based on the luminance level is stored, and correction data Gi [x corresponding to the position information indicated by the address counter 518 is stored. , y] to the multiplier 519.
[0141]
The address counter 518 fetches and counts the timing signal of the timing generator 45, and sends the count value to the memory 517.
[0142]
This count value can be used to determine where in the video (signal) of one frame captured by the imaging unit 10 the video signal has been processed by the pixel disposed, that is, the pixel is located. It has a value corresponding to the position information (position [x, y]).
[0143]
The multiplier 519 multiplies the correction coefficient Gh [In] set by the correction coefficient setting circuit 516 by the correction data Gi [x, y] output from the memory 517 and calculates a correction value for each pixel. The shading correction coefficient G [x, y] is output to the LPF 520.
[0144]
An LPF (Low Pass Filter) 520 is sent from the multiplier 519 to remove the influence of noise and the like and to prevent the luminance of the video signal photographed by the correction using the shading correction coefficient G [d] from changing abruptly. The incoming shading correction coefficient G [x, y] is adjusted to a predetermined value and sent to the video signal correction circuit 510.
[0145]
A process of correcting uneven brightness of a video signal by the imaging device having the above configuration will be described with reference to the drawings.
[0146]
First, each pixel constituting the image sensor converts light from a subject captured through the lens of the imaging unit 10 into an electric signal, and converts the electric signal converted by each pixel according to a timing signal generated by the timing generator 45. The video is sequentially captured, and a video in a range (hereinafter, referred to as a frame) captured via a lens within a predetermined time is transmitted to the S / H circuit 20 as an analog video signal for one frame.
[0147]
The S / H circuit 20 samples the analog video signal sent from the imaging unit 10, sends it to the AGC circuit 30, and holds the sampled value until the processing of the A / D conversion circuit 40 is completed. Is completed, the next sampling value is sent to the AGC circuit 30.
[0148]
The AGC circuit 30 amplifies the analog video signal sampled by the S / H circuit 20, and the A / D circuit 40 converts the analog video signal amplified by the AGC circuit 30 into a digital video signal, and converts the analog video signal into a digital video signal. Send to 50.
[0149]
The camera signal processing unit 50 sends the digital video signal from the A / D circuit 40 to the video signal correction circuit 510 and the level detection circuit 515.
[0150]
The level detection circuit 515 detects the luminance level of the transmitted digital video signal and sends it to the correction coefficient setting circuit 516. The correction coefficient setting circuit 516 outputs the correction coefficient Gh [In] according to the detected luminance level. Set and send to multiplier 519.
[0151]
On the other hand, the address counter 518 takes in the timing signal from the timing generator 45 and sends the counted value to the memory 517. The memory 517 uses the lens (frame) as shown in FIG. 7 based on the sent count value. Is instructed to transmit the correction data Gi [x, y] of the pixel corresponding to the position [x, y] to the multiplier 519.
[0152]
Here, the value of the correction data Gi [x, y] stored in the memory 517 is closer to “1” toward the center of the lens and becomes larger than “1” toward the periphery of the lens. When luminance unevenness occurs due to the color filter of the image sensor, the luminance may be larger (brighter) than the central portion of the lens that is the reference for correction, and the value of the correction data Gi [x, y] may be smaller. It may be "1" or less.
[0153]
Therefore, in consideration of such a case, when the value of the correction data Gi [x, y] is smaller than “1”, the multiplier 519 sets the value of Expression 3 and the value of the correction data Gi [x, y] to “1”. If it is larger, the shading correction coefficient G [x, y] is calculated by Expression 4.
[0154]
(Equation 4)
G [x, y] = (1-Gi [x, y]) × Gh [In]; When Gi [x, y] <1
[0155]
(Equation 5)
G [x, y] = (Gi [x, y] −1) × Gh [In]; When Gi [x, y]> 1
[0156]
The shading correction coefficient G [x, y] calculated by the multiplier 519 is sent to the LPF 520 to remove the influence of noise or the like by the LPF 520, or to use the shading correction coefficient G [x, y] for the entire video signal. Adjustments are made to prevent abrupt changes and sent to the video signal correction circuit 510.
[0157]
The video signal correction circuit 510 corrects luminance unevenness of the digital video signal sent from the A / D circuit 40 based on the shading correction coefficient G [x, y] from the LPF 520 and sends the corrected signal to the WB circuit 511.
[0158]
The digital video signal that has been subjected to the luminance unevenness correction processing by the video signal correction circuit 510 is subjected to white balance correction by the WB circuit 511, and then subjected to gradation correction by the γ correction circuit 512, The RGB signals interpolated by the color separation circuit 513 are converted into a luminance signal (Y signal) and a color difference signal (Cb signal, Cr signal) by a YC conversion circuit 514 and output to a subsequent circuit.
[0159]
As described above, since the uneven brightness is corrected based on the positional relationship between the lens and the pixel according to the brightness level of the captured video signal, the uneven brightness due to the fixed pattern noise caused by the pixels constituting the image sensor is included. Corrections can be made.
[0160]
Next, a fourth embodiment will be described with reference to FIG.
[0161]
Similar to the third embodiment (see FIG. 6) described above, the method is the same in that luminance unevenness is corrected for each pixel constituting an image sensor, but the shutter speed, exposure, and the like provided in a general image capturing device are used. A description will be given of a case where luminance unevenness is corrected by using a shooting parameter setting circuit that automatically sets parameters required for shooting.
[0162]
As shown in FIG. 8, the main parts for correcting the uneven brightness in such an imaging device include an imaging unit 10, an S / H (Sample / Hold) circuit 20, an AGC (Automatic Gain Control) circuit 30, and an A / It includes a D (Analog / Digital) conversion circuit 40, a timing generator 45, a camera signal processing unit 50, a subject detection circuit 60, a shooting parameter setting circuit 70, and the like.
[0163]
Next, the function of each circuit will be described. The imaging unit 10, an S / H (Sample / Hold) circuit 20, an AGC (Automatic Gain Control) circuit 30, an A / D (Analog / Digital) conversion circuit 40, a timing generator 45 has the same function as the above-described first to third embodiments, and a description thereof will be omitted.
[0164]
The camera signal processing unit 50 includes a video signal correction circuit 510, a WB (white balance) circuit 511, a γ (gamma) correction circuit 512, a color separation circuit 513, a YC conversion circuit 514, a correction coefficient setting circuit 516, a memory 517, and an address counter. 518, a multiplier 519, an LPF (Low Pass Filter) 520, and the like.
[0165]
Next, the function of each of the circuits 510 to 520 constituting the camera signal processing unit 50 will be described. The video signal correction circuit 510 other than the correction coefficient setting circuit 516, the WB circuit 511, the γ correction circuit 512, and the color separation circuit 513 , The YC conversion circuit 514, the memory 517, the address counter 518, the multiplier 519, and the LPF 520 have the same functions as those of the third embodiment described above, and thus the description thereof will be omitted.
[0166]
The correction coefficient setting circuit 516 of the camera signal processing unit 50 controls the entire video signal based on the luminance level distribution of the video signal (for one frame) detected by the subject detection circuit 60 under the control of the imaging parameter setting circuit 70. A correction coefficient Gh [all] for appropriately correcting the luminance is set.
[0167]
Note that, as in the description of the second embodiment, the value of the correction coefficient Gh [all] is set to a small value for Gh [all] when a subject with low luminance is photographed, as shown in FIG. When a high-luminance subject is photographed, by increasing the luminance, it is possible to suppress an increase in noise at the time of photographing a low-luminance, or dark subject, and an increase in luminance around the lens more than necessary.
[0168]
The subject detection circuit 60 detects the distribution state of the luminance level of the video signal (for one frame) sent from the A / D circuit 40 and sends it to the imaging parameter setting circuit 70.
[0169]
The shooting parameter setting circuit 70 controls the AGC circuit 30 and the WB circuit 511 to automatically set parameters required for shooting, such as shutter speed and exposure, and also sets a digital video signal (1) detected by the subject detection circuit 60. The distribution state of the luminance level (for the frame) is sent to the correction coefficient setting circuit 516.
[0170]
A process of correcting uneven brightness of a video signal by the imaging device having the above configuration will be described with reference to the drawings.
[0171]
First, each pixel constituting the image sensor converts light from a subject captured through the lens of the imaging unit 10 into an electric signal, and converts the electric signal converted by each pixel according to a timing signal generated by the timing generator 45. The video is sequentially captured, and a video in a range (hereinafter, referred to as a frame) captured via a lens within a predetermined time is transmitted to the S / H circuit 20 as an analog video signal for one frame.
[0172]
The S / H circuit 20 samples the analog video signal sent from the imaging unit 10, sends it to the AGC circuit 30, and holds the sampled value until the processing of the A / D conversion circuit 40 is completed. Is completed, the next sampling value is sent to the AGC circuit 30.
[0173]
The AGC circuit 30 amplifies the analog video signal sampled by the S / H circuit 20, converts the analog video signal amplified by the AGC circuit 30 by the A / D circuit 40 into a digital video signal, and converts the analog video signal into a digital video signal. Is sent to the subject detection unit 60.
[0174]
The subject detection unit 60 detects the distribution state of the luminance level of the digital video signal (for one frame) and sends it to the photographing parameter setting circuit 70. The photographing parameter setting circuit 70 converts the distribution state of the luminance level into a camera signal processing unit. 50 to the correction coefficient setting circuit 516.
[0175]
The camera signal processing unit 50 sends the digital video signal from the A / D circuit 40 to the video signal correction circuit 510, and also takes in the timing signal from the timing generator 45 and sends the count value counted by the address counter 518 to the memory 517. The correction data Gi [x, y] of the pixel corresponding to the position [x, y] in the frame as shown in FIG. 5 is transmitted to the multiplier 519 based on the count value transmitted from the memory 517. Instruct.
[0176]
Further, the correction coefficient setting circuit 516 of the camera signal processing unit 50 sets a correction coefficient Gh [all] according to the distribution state of the luminance level sent from the imaging parameter setting circuit 70 and sends it to the multiplier 519.
[0177]
Then, the multiplier 519 multiplies the correction coefficient Gh [all] set by the correction coefficient setting circuit 516 and the correction data Gi [x, y] sent from the memory 517 as shown in Expression 4. The shading correction coefficient G [x, y] is calculated.
[0178]
(Equation 6)
G [x, y] = Gi [x, y] × Gh [all]
[0179]
The shading correction coefficient G [x, y] calculated by the multiplier 519 is sent to the LPF 520 to remove the influence of noise or the like by the LPF 520, or to use the shading correction coefficient G [x, y] for the entire video signal. Adjustments are made to prevent abrupt changes and sent to the video signal correction circuit 510.
[0180]
The video signal correction circuit 510 corrects luminance unevenness of the digital video signal sent from the A / D circuit 40 based on the shading correction coefficient G [x, y] from the LPF 520 and sends the corrected signal to the WB circuit 511.
[0181]
The digital video signal that has been subjected to the luminance unevenness correction processing by the video signal correction circuit 510 is subjected to white balance correction by the WB circuit 511, and then subjected to gradation correction by the γ correction circuit 512, The color separation circuit 513 interpolates the pixels to obtain RGB signals for all the pixels. The RGB signals are converted into a luminance signal (Y signal) and a color difference signal (Cb signal, Cr signal) by a YC conversion circuit 514, and the subsequent stage. Output to the circuit.
[0182]
As described above, using the existing circuits such as the subject detection circuit and the shooting parameter setting circuit, the correction including the brightness unevenness due to the fixed pattern noise by the pixels constituting the image sensor is performed according to the brightness level of the captured video signal. It can be carried out.
[0183]
In the above-described first to fourth embodiments, in a device that captures a color image, a color filter is used for an image sensor such as a CCD, and the color filter is R (red) / G (green) / Since B (blue) color is applied and one pixel corresponds to each color, for example, even when a white subject is photographed, these three color filters have different spectral characteristics, so that the three color filters have different spectral characteristics. The distribution state of the luminance level is not the same for the pixels corresponding to the filters of the respective colors, and the luminance level of the video signal is generally higher in the order of G (green) → R (red) → B (blue). That is, the luminance level of the pixel corresponding to each color filter is high.
[0184]
Therefore, the correction data Gi [d] or the correction data Gi [x, y] corresponding to the filters of R (red) / G (green) / B (blue) are stored in the memory, and the correction coefficient setting circuit is provided. By setting a correction coefficient G [d] or a correction coefficient G [x, y] corresponding to the luminance level of the video signal of each color, the shading correction coefficient G [d] for the RGB video signal or A shading correction coefficient G [x, y] is calculated, and the luminance level and the luminance unevenness of the R (red) / G (green) / B (blue) video signal are corrected.
[0185]
In addition, not only the CCD but also a CMOS (Complementary Metal Oxide Semiconductor) sensor as the imaging device in the first to fourth embodiments can perform the same brightness unevenness correction as described above.
[0186]
【The invention's effect】
As described above, the luminance level of the captured video signal is detected, the luminance level correction coefficient is set according to the detected luminance level, and the set correction coefficient and the luminance level correction stored in a memory or the like in advance are set. Since the luminance level of the photographed video signal is corrected based on the data, the luminance level can be corrected according to the photographed video signal, and the luminance unevenness caused by a lens, an image sensor, and the like can be effectively reduced. This is an extremely excellent effect that it can be removed to a great extent.
[0187]
Furthermore, it is possible to prevent the noise in the peripheral portion of the lens caused by the correction of the unevenness of the video signal from being emphasized, and when a subject having a low luminance level is photographed, the image in the peripheral portion of the lens becomes too bright. Unnatural images can be prevented.
[0188]
In addition, since uneven brightness can be corrected according to the brightness level of the video signal, there is no need to separately prepare correction data according to shooting conditions such as shutter speed, reducing the memory capacity and circuit scale. can do.
[0189]
In addition, since the S / N ratio when the illuminance of the subject is dark is improved, there is a merit that shooting with a darker illuminance of the subject becomes possible.
[Brief description of the drawings]
FIG. 1 is a block diagram schematically illustrating a main part of luminance unevenness correction in an imaging device according to a first embodiment of the present invention.
FIG. 2 is an explanatory diagram for describing a table of a correction coefficient Gh included in the imaging device illustrated in FIG. 1;
FIG. 3 is an explanatory diagram for describing a distance [d] from a center of an optical axis of a lens (frame) in the imaging device illustrated in FIG. 1;
FIG. 4 is a block diagram schematically illustrating a main part of luminance unevenness correction in an imaging device according to a second embodiment of the present invention.
FIG. 5 is an explanatory diagram for describing setting of a correction coefficient Gh [all] in the imaging device shown in FIG. 4;
FIG. 6 is a block diagram schematically illustrating a main part of luminance unevenness correction in an imaging device according to a third embodiment of the present invention.
7 is an explanatory diagram for describing a position [x, y] on a lens (frame) in the imaging device shown in FIG. 6;
FIG. 8 is a block diagram schematically illustrating a main part of luminance unevenness correction in an imaging device according to a fourth embodiment of the present invention.
FIG. 9 is a graph schematically showing a relationship between a distance from a center of an optical axis of a lens and a luminance level of a video signal.
FIG. 10 is a graph showing a relationship between a lens position and a luminance level of a video signal in each pixel.
FIG. 11 is a block diagram schematically showing a main part of luminance unevenness correction in a conventional imaging device.
FIG. 12 is an explanatory diagram for describing setting of correction data when correcting a luminance level according to a distance [d] from a center point of a lens in the imaging device illustrated in FIG. 11;
FIG. 13 is an explanatory diagram schematically showing a comparison between a video signal having a large luminance level (the luminance of the subject is high) and a video signal having a low luminance level (the luminance of the subject is low).
14 is an explanatory diagram in a case where the luminance level of the video signal shown in FIG. 13 is corrected according to the distance [d] from the center point of the lens.
FIG. 15 is a graph showing a relationship between a lens position and a luminance level of a video signal in each pixel when fixed pattern noise is considered.
FIG. 16 is an explanatory diagram of a case where a video signal having a large luminance level (subject luminance is high) and a video signal having a low luminance level (subject luminance is low) are corrected in consideration of fixed pattern noise.
[Explanation of symbols]
Reference numeral 10: imaging unit, 20; S / H (Sample / Hold) circuit, 30; AGC (Automatic Gain Control) circuit, 40; A / D (Analog / Digital) conversion circuit, 45; timing generator, 50; camera signal processing 510; WB (white balance) circuit, 512; γ correction circuit, 513; color separation circuit, 514; YC conversion circuit, 515; level detection circuit, 516; 517; memory, 518; address counter, 519; multiplier, 520; LPF (Low Pass Filter), 521; distance calculation circuit, 60; subject detection circuit, 70; shooting parameter setting circuit
10a; imaging unit, 20a; S / H (Sample / Hold) circuit, 30a; AGC (Automatic Gain Control) circuit, 40a; A / D (Analog / Digital) conversion circuit, 50a; camera signal processing unit, 510a; Signal unevenness correction circuit, 511a; WB (white balance) circuit, 512a; γ correction circuit, 513a; color separation circuit, 514a; YC conversion circuit, 515a; level detection circuit, 517a;

Claims (5)

レンズから入射する光を映像信号として変換するための複数個の画素から構成される撮像素子を備えた撮像手段と、
前記撮像素子を構成する各画素によって変換された映像信号の輝度レベルを補正するため、前記撮像手段で基準となる被写体を撮像したときの映像信号をもとに算出した補正データが記録してある記録手段と、
前記撮像手段で変換した映像信号の輝度レベルを検出するレベル検出手段と、前記レベル検出手段で検出した映像信号の輝度レベルに応じて、前記撮像手段で変換した映像信号の輝度レベルを補正するための所定の補正係数を設定する補正係数設定手段と、
前記補正係数設定手段で設定した所定の補正係数と前記記録手段に記録してある補正データとに基づいて前記撮像手段で変換した映像信号の輝度レベルを補正する輝度むら補正手段と、を備えていること
を特徴とする撮像機器。
Imaging means including an imaging element composed of a plurality of pixels for converting light incident from the lens as a video signal,
In order to correct the luminance level of the video signal converted by each pixel constituting the image sensor, correction data calculated based on a video signal obtained when an image of a reference subject is captured by the imaging unit is recorded. Recording means;
A level detecting means for detecting a luminance level of the video signal converted by the imaging means, and correcting a luminance level of the video signal converted by the imaging means according to the luminance level of the video signal detected by the level detecting means. Correction coefficient setting means for setting a predetermined correction coefficient of
Brightness unevenness correction means for correcting the brightness level of the video signal converted by the imaging means based on the predetermined correction coefficient set by the correction coefficient setting means and the correction data recorded in the recording means. An imaging device characterized in that:
前記記録手段の補正データは、前記基準となる被写体を撮像したときの映像信号をもとに、前記レンズの中心点を基準とし、該中心点からの距離に応じて算出した補正データであること
を特徴とする請求項1に記載の撮像機器。
The correction data of the recording unit is correction data calculated based on a video signal obtained when the reference subject is imaged, based on a center point of the lens and based on a distance from the center point. The imaging device according to claim 1, wherein:
前記記録手段の補正データは、前記基準となる被写体を撮像したときの映像信号をもとに、前記レンズの中心点を基準とし、該中心点からの位置情報に応じて前記撮像素子を構成する画素ごとに算出した補正データであること
を特徴とする請求項1に記載の撮像機器。
The correction data of the recording unit configures the image sensor according to position information from the center point with reference to the center point of the lens based on a video signal obtained when the reference subject is imaged. 2. The imaging apparatus according to claim 1, wherein the correction data is correction data calculated for each pixel.
前記補正係数設定手段は、前記撮像手段で撮像した映像信号をR・G・B信号に変換して処理している場合、該R・G・B信号それぞれに応じた所定の補正係数を設定できること
を特徴とする請求項1に記載の撮像機器。
The correction coefficient setting means can set a predetermined correction coefficient corresponding to each of the R, G, and B signals when the video signal imaged by the imaging means is converted into RGB signals and processed. The imaging device according to claim 1, wherein:
前記補正係数設定手段は、前記撮像素子を構成する画素ごとに所定の補正係数を設定できること
を特徴とする請求項1に記載の撮像機器。
2. The imaging apparatus according to claim 1, wherein the correction coefficient setting unit can set a predetermined correction coefficient for each pixel constituting the image sensor.
JP2002365326A 2002-12-17 2002-12-17 Imaging device Pending JP2004200888A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002365326A JP2004200888A (en) 2002-12-17 2002-12-17 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002365326A JP2004200888A (en) 2002-12-17 2002-12-17 Imaging device

Publications (1)

Publication Number Publication Date
JP2004200888A true JP2004200888A (en) 2004-07-15

Family

ID=32762910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002365326A Pending JP2004200888A (en) 2002-12-17 2002-12-17 Imaging device

Country Status (1)

Country Link
JP (1) JP2004200888A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008085623A (en) * 2006-09-27 2008-04-10 Kyocera Corp Shading correcting method and imaging device
CN102098410A (en) * 2009-12-14 2011-06-15 索尼公司 Information processing apparatus, information processing method, program, and imaging apparatus including optical microscope
CN106981265A (en) * 2017-05-25 2017-07-25 京东方科技集团股份有限公司 Processor, display driver and electronic equipment

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008085623A (en) * 2006-09-27 2008-04-10 Kyocera Corp Shading correcting method and imaging device
JP4703529B2 (en) * 2006-09-27 2011-06-15 京セラ株式会社 Shading correction method and imaging apparatus
CN102098410A (en) * 2009-12-14 2011-06-15 索尼公司 Information processing apparatus, information processing method, program, and imaging apparatus including optical microscope
US8442347B2 (en) 2009-12-14 2013-05-14 Sony Corporation Information processing apparatus, information processing method, program, and imaging apparatus including optical microscope
US9071761B2 (en) 2009-12-14 2015-06-30 Sony Corporation Information processing apparatus, information processing method, program, and imaging apparatus including optical microscope
CN106981265A (en) * 2017-05-25 2017-07-25 京东方科技集团股份有限公司 Processor, display driver and electronic equipment
US20180343429A1 (en) * 2017-05-25 2018-11-29 Boe Technology Group Co., Ltd. Processor, display driver, and electronic device

Similar Documents

Publication Publication Date Title
JP6404923B2 (en) Imaging sensor and imaging apparatus
US8179445B2 (en) Providing improved high resolution image
US7102669B2 (en) Digital color image pre-processing
US8023014B2 (en) Method and apparatus for compensating image sensor lens shading
JP4695552B2 (en) Image processing apparatus and method
JP2011010108A (en) Imaging control apparatus, imaging apparatus, and imaging control method
JP2005102134A (en) Image processing apparatus and method, recording medium, and program
US9160937B2 (en) Signal processing apparatus and signal processing method, solid-state imaging apparatus, electronic information device, signal processing program, and computer readable storage medium
JP2002232906A (en) White balance controller
TWI520606B (en) Image processing apparatus and control method for image processing apparatus
US6831687B1 (en) Digital camera and image signal processing apparatus
JP2009044367A (en) Imaging method and imaging apparatus
JP4682181B2 (en) Imaging apparatus and electronic information device
US20030184673A1 (en) Automatic exposure control for digital imaging
WO2009067121A1 (en) Camera sensor system self-calibration
US10623674B2 (en) Image processing device, image processing method and computer readable recording medium
JP4687454B2 (en) Image processing apparatus and imaging apparatus
JP2003101815A (en) Signal processor and method for processing signal
JP2004200888A (en) Imaging device
JP2005080190A (en) White balance adjustment method and electronic camera
JP2013219452A (en) Color signal processing circuit, color signal processing method, color reproduction evaluation method, imaging apparatus, electronic apparatus and testing apparatus
JP2004215063A (en) Photographing device and outline correction method
JP6704611B2 (en) Imaging device and imaging method
JP2006109046A (en) Imaging device
JP3958219B2 (en) Imaging apparatus and contour correction method