JP3897370B2 - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP3897370B2 JP3897370B2 JP01669696A JP1669696A JP3897370B2 JP 3897370 B2 JP3897370 B2 JP 3897370B2 JP 01669696 A JP01669696 A JP 01669696A JP 1669696 A JP1669696 A JP 1669696A JP 3897370 B2 JP3897370 B2 JP 3897370B2
- Authority
- JP
- Japan
- Prior art keywords
- white
- color
- white balance
- signal
- sample point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Color Television Image Signal Generators (AREA)
- Processing Of Color Television Signals (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は静止画を撮像する撮像装置の技術分野に属するものである。
【0002】
【従来の技術】
図16は従来のデジタル電子カメラのブロック図である。
【0003】
図16において300はデジタル電子カメラ、308はメモリカード等の記録媒体である。デジタル電子カメラ300において、301は焦点距離や画角が調整可能な撮像レンズ、302は絞り機能とシャッター機能を兼ねる絞り兼用シャッター、304は撮像レンズ301や絞り兼用シャッター302のメカ系駆動回路である。101は被写体からの反射光を電気信号に変換する撮像素子、103は撮像素子を動作させるために必要なタイミング信号を発生するタイミング信号発生回路(以降TGとする)、102はタイミング信号発生回路からの信号を撮像信号駆動可能なレベルに増幅する撮像素子駆動回路、104は撮像素子101の出力ノイズ除去のためのCDS回路やAGC回路を備えたプリプロセス手段、105はA/D変換器、303はA/D変換されたデジタル信号を処理する撮像信号処理する回路を有する撮像信号処理回路、108はシステム制御CPU、116は操作補助のための表示やカメラの状態を表わす操作表示部、118はカメラの撮影開始をを外部撮影者が制御するためのスイッチで第1ストロークSW1と第2ストロークSW2の2段階操作が可能である。307はデジタル電子カメラ300と記録媒体308とを接続するための記録媒体I/Fである。また305は光学系301の焦点調整のために撮像装置と被写体との距離を測定する測距回路、306は被写体の明るさを測定する測光回路である。
【0004】
また、図17は303撮像信号処理回路の内部構成とその周辺を示すブロック図である。101は色フィルタが補色の撮像素子(CCD)であり、撮像した信号は104プリプロセス手段を介して105A/D変換器に入力し、デジタル信号に変換された後に303撮像信号処理回路に入力される。入力された信号は410メモリに一旦記憶した後、あるいは入力信号を直接に401エンハンサー・C_SEP回路へ入力する。401エンハンサー・C_SEP回路および402遅延器を用いて輝度信号と色信号とを分離し輝度信号に対しては周波数の高域部に対する強調・補償を行う。401から出力される色信号はCCD色フィルタ(Ma,Gr,Cy,Ye)をそれぞれ加算した信号(Wr,Wb,Gr,Gb)であり、同色信号を403C_MTXにおいてRGB信号に変換する。404にて輝度信号Yと色信号に対してフィルタ処理を施す。405WBは色信号RGBそれぞれの利得を408AWBに従って制御するホワイトバランス回路である。406はYおよびRGBに対してガンマ処理を施すガンマ回路であり、407C_YMTXはガンマ処理されたRGB信号を色差信号R−Y,B−Yに変換するマトリクス回路である。408AWBはRGB信号あるいは407C_YMTXの出力R−Y,B−Y信号およびY信号を一定期間積分し積分値に応じて405WBでR信号およびB信号の利得を制御しホワイトバランス制御をするための制御信号を発生させる。409は色差信号に対するフィルタ処理するフィルタである。輝度信号Yと色差信号R−Y,B−Yを410メモリに1画像分記憶した後に411圧縮回路においてデータ圧縮処理を施す構成である。412はCCDをフレーム読み出しする時の垂直方向の画素加算を行う画素加算回路である。
【0005】
図18の(A)は408AWBの詳細な図面であり、色差信号(R−Y,B−Y)を入力し同信号の振幅に対し所定値を越えた大きな振幅の入力を制限するクリップ回路を有し、クリップ回路を通過した色差信号と輝度信号とを例えば一画面を複数ブロックに分割し、この分割ブロック毎に積分し、(R−Y)と(B−Y)とで作る座標において白色の色温度変化時における変化範囲を白判別範囲(図18の(B)のように) として設け、ブロック毎の積分値が同座標上において白判別範囲内にあるか否かを判別し、白判別範囲内の積分値を用いてR信号とB信号のゲインを定める制御を108のシステム制御CPUが行い、このゲインに応じた制御値でR/Bそれぞれのゲインを調整する。
【0006】
【発明が解決しようとする課題】
上記従来例によるホワイトバランス制御は動画撮影時に適応するには時間経過にともなってある制御状態に収束する。しかしながら静止画撮影において上記従来例に基づくホワイトバランス制御を適応するには、画像の撮影(本露光)前に一旦撮像素子を露光し、この露光した信号を信号処理回路を用いて色差信号を作り上記従来のホワイトバランス検出により(R−Y),(B−Y)の座標上の位置から色温度状況を検出し同色温度における調整値を得た後に、本露光を行い先に得た調整値を用いてゲイン調整を行ってホワイトバランスを取る。
【0007】
この様に一回のホワイトバランス検出で正確な色温度を検出する必要があるが、従来の様に(R−Y),(B−Y)で座標を作り同座標上に白判別範囲を設定する方法にあっては、ある色を低輝度で撮影した時とある色温度(特に白判別範囲内にあってR−Y軸とB−Y軸の交差点より遠い場所にあたる色温度)における白撮影した時とではともに白判別範囲内に入るので色温度の特定が難しくなり正確な色温度を検出することができない欠点があった。例えば、R−YとYとの関係は図18の(C)に示す様に、色温度変化がαからβまでの間であるとき白色はa,b,oの3点で囲まれた領域に存在する。これに対しある色(a色)はc,d,oの3点で囲まれた領域に存在するものとする、従来の様にR−Yのレベル(e)で白色を判別すると領域(F)内のa色も含まれることとなり色温度検出の妨げとなる。
【0008】
本発明は、上記問題点を解決するためになされたもので、ホワイトバランスを良好に調整できる撮像装置を提供することを課題とするものである。
【0009】
【課題を解決するための手段】
上記課題を解決するため、本発明では、撮像装置を次の(1)、(2)のとおりに構成する。
(1)ホワイトバランス調整機能を有する撮像装置において、
分光特性の異なる複数の色フィルタを有する撮像素子と、
前記撮像素子からの出力信号を、前記複数の色フィルタの配列における単位配列に基づいて複数のブロックにブロック化し、その一部のブロックの出力信号を間引き、間引き後の各ブロックの出力信号による画像のエッジの状況に基づいて、当該ブロックの出力信号が前記ホワイトバランス調整のために使用できるか否かを判断する適正判断手段と、
を備えた撮像装置。
(2)前記(1)に記載の撮像装置において、
前記各ブロックの出力信号による画像のエッジの状況は、各ブロックにおける同色のフィルタの出力信号値の差が予め決められた値より小さいか否かである撮像装置。
【0018】
【発明の実施の形態】
発明の実施の形態を実施例によって詳細に説明する。
【0019】
【実施例】
以下、図面を参照して本発明の実施例を説明する。
【0020】
(実施例1)
図4は本発明の第1の実施例に係る電子カメラの信号処理の流れを示したブロック図である。本実施例における撮像素子はフレーム読み出しを行なうため撮像素子からの出力は撮像素子に張り付けられたフィルタのまま出てくる。まず、オプティカルブラック領域における各フィルタ出力の積分値を用いて黒レベルの調整を行なう。次に、ホワイトバランス処理を行ない、白点におけるMa、Gr、Cy、Yeの出力ゲインが同じになるようにする。
【0021】
輝度信号(Y)を作るには、色フィルタによるモアレを除去するためにローパスフィルタがかけられた後、アパーチャー補正を行なう。ここでは、水平、垂直にそれぞれハイパスフィルタがかけられ、ゲインを調整、アパチャー信号の振幅の小さいものにはその振幅が大きくなるように、また振幅の大きいものにはその振幅が小さくなるようなPeak To Peak処理が施され、水平、垂直が足され、さらにゲインをかけて、輝度成分(Yn)に加えられる。
【0022】
色差信号(R−Y,B−Y)を作るには、まず同時化回路で4色の信号を同時化し、撮像面全領域に4つの色信号が割り当てられるよう画素補間を行なう。次に4×3のマトリクスを用いてMGYC信号をRGB 信号に変換する。このとき、マトリクスは、ホワイトバランス情報から被写体の色温度を判別して、その色温度における色再現の最もよくなるようなマトリクスが用いられる。次に、RGB信号をR−Y、B−Y信号に変換し、モアレ低減のためのローパスフィルタをかけ、Y信号を参考に飽和の色消し処理を行なう。
【0023】
このようにして作られた、輝度信号(Y)と色差信号(R−Y,B−Y)は、RGB信号に変換され、ガンマ補正処理を行なった後、記録される。
【0024】
次に、本発明の主眼点である、ホワイトバランス処理について詳細に説明する。CCD補色フィルターが図5に示すように配列している場合、図の8画素配列を単位ブロックとして、この単位ブロックの繰り返しで全体の配列が成り立っている。この8画素それぞれの色フィルタに合わせて、Ma1、Ma2、Gr1、Gr2、Cy1、Cy2、Ye1、Ye2とする。同色フィルタの出力をそれぞれ2色(Ma1とMa2、Gr1とGr2、Cy1とCy2、Ye1とYe2)に分けて扱うのは、隣接画素の色が異なることにより同色フィルタの画素でも互いに出力レベルが異なるためである。
【0025】
以下、ホワイトバランス処理を図1ないし図3のフローチャートを参照して説明する。
【0026】
(step1)初期設定
1.1 誤差吸収
CCD撮像素子から出力された画像信号全てに対し、予め決めておいた係数をかける。これは、CCD撮像素子上の色フィルタの配列によって、同一色を撮影した時に同一色のフィルタからの出力値が異なってしまうのを補正するものである。これを図5を用いて説明すると、例えば白色板を撮影したとき、Ma1とMa2、Gr1とGr2では、撮像素子にもよるが、信号値が大きく異なることがある。これは、CyとYeのフィルタの影響を受けたものと考えられ、この値を同じにするような係数をかけ吸収することが必要である。
【0027】
Ma1=Ma1*Km1
Ma2=Ma2*Km2
Gr1=Gr1*Kg1
Gr2=Gr2*Kg2
Cy1=Cy1*Kc1
Cy2=Cy2*Kc2
Ye1=Ye1*Ky1
Ye2=Ye2*Ky2
(但し、各係数K*は予め各CCD撮像子毎に測定した値)
1.2 白判別範囲幅の設定
予め白板を様々な色温度で撮影し、その時の、
(Ye−Cy)/CyをX軸(色温度の変化の影響が大きい)
(Ma−Gr)/GrをY軸
とし、プロットしたものを白判別曲線と呼び、図6のようになる。X軸方向の値は色温度の変化に対して敏感に反応する。+方向に行くにつれて色温度は低くなる。Y軸方向は、緑、赤色に敏感に反応する。よってY軸の幅dyを変化させることで緑、赤の補正が可能となる。本実施例ではdyを、被写体の照度、あるいは、フリッカーの有無で変化させる。蛍光燈の光成分は、太陽光等に比べ緑色のスペクトルがたっている。つまり、太陽光下の撮影に比べ、被写体の色が緑がかってしまう。これを補正するために、Y軸の緑方向の白判別領域(図6におけるdyの値)を広くすることで、緑補正が行える。よって、被写体の照度が暗ければ蛍光燈下である可能性が大きく、またフリッカーがある場合は蛍光燈下であるので、dyの値を大きくする。図12に示す(a)は通常光撮影の場合の白範囲幅、図12(b)は蛍光燈撮影の場合の白範囲幅である。
【0028】
また,フラッシュ光の有無、被写体の照度情報から、ある程度被写体の色温度が予測できる。これにより、X軸の範囲を限定することで、より正確なホワイトバランスが可能となる。図12(c)はフラッシュ撮影時の白範囲幅を示した図であり、通常のX軸の範囲dxに対し、これにフラッシュオンや照度情報からdx1に限定する。
【0029】
(step2) サンプルポイントの抽出
図3のような8画素単位を1サンプルポイントと呼び、新たなサンプリングポイントを選択する。
【0030】
(step3) サンプルポイントにおける適正判断処理
3.1 飽和判別
サンプルポイント8画素に飽和画素が含まれるか否かを判断し、次式を一つでも満たさない場合、飽和画素があると判断し、本サンプルポイントは使用しないで、ステップ2に戻り、次のサンプリングポイントを抽出する。
【0031】
Ma1<BrightThresholdMagenta
Ma2<BrightThresholdMagenta
Gr1<BrightThresholdGreen
Gr2<BrightThresholdGreen
Cy1<BrightThresholdCyan
Cy2<BrightThresholdCyan
Ye1<BrightThresholdYellow
Ye2<BrightThresholdYellow
3.2 ノイズ判別
サンプルポイント8画素が、S/Nが悪い場合、つまり次式を満たさない場合、ノイズ画素であると判断し、本サンプルポイントは使用しないで、ステップ2に戻る。
【0032】
(Ma1+Ma2+Gr1+Gr2+Cy1+Cy2+Ye1+Ye2)/8>DarkTHreshold
3.3 エッジ判別
サンプルポイントの8画素において、以下の4つ式を満たす場合はステップ4へ進み、一つでも満たさない場合がある時は、そのサンプルポイントにはエッジが含まれていると判断し、ステップ2に戻る。
【0033】
EdgeThresholdMagenta>|Ma1−Ma2|
EdgeThresholdGreen>|Gr1−Gr2|
EdgeThresholdCyan>|Cy1−Cy2|
EdgeThresholdYellow>|Ye1−Ye2|
(step4)
サンプルポイントにおいて、以下の式の値を求める。
【0034】
X1=(Ye1−Cy1)/Cy1 (1)
Y1=(Ma1−Gr1)/Gr1 (2)
X2=(Ye2−Cy2)/Cy2 (3)
Y2=(Ma2−Gr2)/Gr2 (4)
(step5)
(Ye−Cy)/CyをX軸、(Ma−Gr)/GrをY軸にとり、式(1)から(4)が、XY軸上に設けた所定の白領域内にある場合、つまり以下の条件式を満たす場合、
a<X1<b、c<Y1<dかつa<X2<b、c<Y2<d (5)
同サンプルポイントをWB設定するためのデータとして有効とみなされ、ステップ6へ進み、式(5)を満たさない場合はステップ8に進む。
【0035】
(step6)
6.1
まず、同サンプルポイントにおいて、以下の式を用いて、WB座標におけるサンプルポイントのXY軸値の平均値、及び、輝度値を求める。
【0036】
AverageX=(X1+X2)/2
AverageY=(Y1+Y2)/2
AverageBrightness=(Ma1+Ma2+Gr1+Gr2+Cy1+Cy2+Ye1+Ye2)/8
6.2
同サンプルポイントがWB設定有効データとみなされた最初のサンプルポイントである場合は、図7に示すような値をパラメータとして持つサンプルポイントグループを作り、ステップ6.1で求めた値、及び、同ポイントの画素値を代入する。
【0037】
GpX = AverageX
GpY = AverageY
GpBrightness=AverageBrightness
GpMa1=Ma1
GpMa2=Ma2
GpGr1=Gr1
GpGr2=Gr2
GpCy1=Cy1
GpCy2=Cy2
GpYe1=Ye1
GpYe2=Ye2
GpNumber=1
GpWeight=1
6.3
また、同サンプルポイントがWB設定有効データとみなされた最初でないサンプルポイントである場合は、既存のサンプルポイントグループのGpX、GpY、GpBrightnessの値を用いて、以下の条件式を満たすときに、同サンプルポイントはそのサンプルポイントグループに含まれると判断し、サンプルポイントグループに含ませる。
【0038】
また、全てのサンプルポイントグループに含ませることができない場合は、同サンプルポイントを基準とする新たなサンプルポイントグループを作成する。(step6.2と同じ処理)
(step7)
全てのサンプルポイントにおいて、ステップ6の処理が終了したら、ステップ6で作られた一つあるいは複数個のサンプルポイントグループの中から、本当の白のグループをさがすわけであるが、実際にはどれが白であるかわからない。そこで、輝度の高いものは白であるという仮定をして、前記複数のサンプルポイントグループの輝度情報GpBrightnessを用いて、輝度の大きいものに重み付けを行う。重み付けは以下の式で行なう。また、本重み付け処理を行うか行わないかは、ユーザが予め設定可能である。
【0039】
8.1
ステップ4で求め座標にあらわしたホワイト点(X1,Y1)(X2,Y2)が所定範囲内にないものとステップ5(5)式で判別されたならば、図6に示すように同座標点を所定範囲枠上に移動し、範囲枠上の座標(X’,Y’)から次式を用いて、Ma1’、Ma2’、Ye1’、Ye2’を新たに求め直す。
【0040】
Ma1’=(1+Y1’)*Gr1
Ma2’=(1+Y2’)*Gr2
Ye1’=(1+X1’)*Cy1
Ye2’=(1+X2’)*Cy2
8.2
但し、座標点の移動の仕方は図のように、座標点に対して最も近い所定範囲枠上の座標に移動するものとする。この座標移動処理を色クリップ処理とよぶ。この色クリップされたサンプルポイントの総数をSN2 とし、色クリップによって求められる積分値をMa1’,Ma2’,Gr1’,Gr2’,Cy1’,Cy2’,Ye1’,Ye2’とする。
【0041】
(step9)
9.1
ステップ6及び7で得られた全てのサンプルポイントグループに対して、以下の式を用いて、白判別範囲内の積分値(SMa1,SMa2,SGr1,SGr2,SCy1,SCy2,SYe1,SYe2)を求める。
【0042】
SMa1=SMa1+GpMa1*GpWeight
SMa2=SMa2+GpMa2*GpWeight
SGr1=SGr1+GpGr1*GpWeight
SGr2=SGr2+GpGr2*GpWeight
SCy1=SCy1+GpCy1*GpWeight
SCy2=SCy2+GpCy2*GpWeight
SYe1=SYe1+GpYe1*GpWeight
SYe2=SYe2+GpYe2*GpWeight
9.2
また、同時に白とみなされたサンプルポイント数SN1を求める。
【0043】
SN1=SN1+GpNumber
(step10)
サンプル数(SN1+SN2)が0または所定以上得られていなければ、ホワイトバランス調整データとして、所定の色温度(例えば5000K)のホワイトバランス調整値を用いる。
【0044】
(step11)
白撮影時の平均輝度レベルとしての、
SY=(SMa1+SMa2+SGr1+SGr2+SCy1+SCy2+SYe1+SYe2)/8
を求め、この平均輝度レベルに対する各色の積分値の比率を求める。
【0045】
クリップ時の平均輝度レベルとしての
SY’=(SMa1’+SMa2’+SGr1’+SGr2’+SCy1’+SCy2’+SYe1’+SYe2’)/8
を求め、この平均輝度レベルに対する各色の積分値の比率を求める。
【0046】
ステップ11及び12で得られた、各色の積分値の比率と、白判別範囲内の積分サンプル数SN1 と色クリップによる積分サンプル数SN2 より、ホワイトバランス調整データ(wmg1,wg1,wcy1,wye1,wmg2,wg2,wcy2,wye2)を作る。
【0047】
例えば、
のような処理を施す。これらの値をホワイトバランス調整データとして記憶する。
【0048】
上記処理で得られたホワイトバランス調整データを、撮像素子から得られた画素毎の信号値にかけることでホワイトバランスをとることができる。
【0049】
以上、撮像素子からの信号値でホワイトバランスのための座標を作り、その座標におおいて白領域に入ったサンプル点に対し、白いものは相対的に輝度値が高いという仮定のもとに重み付けを行なった後、そのサンプル点で積分を行なう処理をするので、画像中に白が少ない場合であっても、重み付けにより、他の色に影響されホワイトバランスが大きくずれることを回避することが可能である。
【0050】
また、撮像素子からの出力信号をフィルタ配列毎にブロック化する手段と、其の複数ブロックを任意にあるいは千鳥状に間引く手段の少なくとも一つ以上の手段を備えていることで、撮像素子の全ての画素に対して計算を行わずにすみ、処理の高速化が実現できる。
【0051】
また、前記分割手段によって分割されたブロック中に、飽和画素があるか否かを判断する手段、ノイズ画素はあるか否かを判断する手段、ブロック内に画像のエッジか含まれるか否かを判断する手段の少なくともひとつ以上を備えた適正判断手段を備えていることから、参照ブロックが、被写体の色温度を求めるのに適したブロックか否かを判断できる。
【0052】
また、色フィルタ配列上、ある色フィルタの画素の信号値に隣接した別の色のフィルタの光が漏れこみ、その結果、同一被写体の同一ブロック内における同一色の画素の値が互いに異なるということに起因する被写体の色温度を判別できないといった問題点を、白板を撮影し、同一ブロック内における同一色の画素の信号値が同じになるようある係数を各色フィルタ毎にかけることにより回避することが可能となる。
【0053】
また、被写体の照度情報、フリッカー情報、フラッシュ光の有無等の情報から、前記白判別範囲を変化させることにより、光源が蛍光燈の場合の緑成分補正や、フラッシュ時のホワイトバランス、日中シンクロ撮影時におけるホワイトバランスをより正確にとることが可能となる。
【0054】
また、(R−Y)/Y,(B−Y)/Yに代わって(Ma−Gr)/Grまたは(Ma−Gr)/Maと(Ye−Cy)/Cyまたは(Ye−Cy)/Yeによって座標を作り色温度の検出をすることにより、(Ma,Gr,Cy,Ye)の色フィルタを有する撮像素子の読み出し信号から直接に色温度検出ができるため、本露光前の色温度検出の為の露光および信号処理を省略することができ、簡易でかつ正確な色温度検出が可能となる。また、白色部分を少量しか含まない被写体撮影時にあっても(Ma−Gr)/Gr=a,(Ye−Cy)/Cy=bの形で白色判別範囲内の座標を与えることにより、白色判別範囲内におけるMa’=(1+a)*Gr,Ye’=(1+b)*Cyの形の簡易な処理で撮像素子出力を置き換えることができ、前記撮影条件にあってもホワイトバランスが大きくずれないホワイトバランス調整が可能となる。
【0055】
以上、本実施例はフィルタが4色の場合を考えたが、3色の場合でも同様の操作でホワイトバランス調整データを得ることができるのは明白である。
【0056】
(実施例2)
図8は本発明の第2の実施例に係る電子カメラの信号処理の流れを示した図である。本実施例における撮像素子はフィールド読み出しを行なうため、図11に示すように撮像素子からの出力は垂直方向2画素が加算されて読み出される。この図において、
Wb=Ma+Cy
Gr=G+Ye
Gb=Cy+G
Wr=Ye+Ma
である。色フィルタが(Ma、G 、Cy、Ye)から(Wb、Gr、Gb、Wr)に変わったものと考えるとフレーム読み出しとほぼ同じ処理を行なうことになる。
【0057】
まず、オプティカルブラック領域における各フィルタ出力の積分値を用いて黒レベルの調整を行なう。次に、ホワイトバランス処理を行ない、白点におけるWb、Gr、Gb、Wrの出力ゲインが同じになるようにする。
【0058】
輝度信号(Y)を作るには、色フィルタによるモアレを除去するために水平ローパスフィルタがかけられた後、アパーチャー補正を行なう。ここでは、水平、垂直にそれぞれハイパスフィルタがかけられ、ゲインを調整、アパチャー信号の振幅の小さいものにはその振幅が大きくなるように、また振幅の大きいものにはその振幅が小さくなるようなPeak To Peak処理が施され、水平、垂直が足され、さらにゲインをかけて、輝度成分(Yn)に加えられる。
【0059】
色差信号(R−Y,B−Y)を作るには、まず同時化回路で4色の信号を同時化し、撮像面全領域に4つの色信号が割り当てられるよう画素補間を行なう。次に4×3のマトリクスを用いてWbGrGbWr信号をRGB信号に変換する。このとき、マトリクスは、ホワイトバランス情報から被写体の色温度を判別して、その色温度における色再現の最もよくなるようなマトリクスが用いられる。次に、RGB信号をR−Y、B−Y信号に変換し、モアレ低減のためのローパスフィルタをかけ、Y信号を参考に飽和の色消し処理を行なう。
【0060】
このようにして作られた、輝度信号(Y)と色差信号(R−Y,B−Y)は、RGB信号に変換され、ガンマ補正処理を行なった後、記録される。
【0061】
次に、本発明の主眼点である、ホワイトバランス処理について詳細に説明する。CCD補色フィルターが図11(a)のように配列している場合、図の8画素配列を単位ブロックとして、この単位ブロックの繰り返しで全体の配列が成り立っている。ここで、フィールド読み出しを行なうため、1フィールドでは、図11(b)のような信号が読み出される。
【0062】
以下、ホワイトバランス処理を図9,図10のフローチャートを参照して説明する。
【0063】
(step1)白判別範囲の設定
予め白板を様々な色温度で撮影し、その時の、
((Wr−Gb)−(Wb−Gr))/(Wr+Gb)をX軸
((Wr−Gb)+(Wb−Gr))/(Wb+Gr)をY軸
とし、プロットしたものを図13に示す。実施例1と同様に、被写体の照度、フリッカーの有無でX軸の幅を変化させ、また、フラッシュの有無、被写体の照度によってY軸の幅を変化させる。
【0064】
(step2)サンプルポイント抽出
図11に示すような加算後の画素4画素単位(Wb,Gb,Gr,Wr)を1サンプルポイントと呼び、新たなサンプリングポイントを選択する。
【0065】
(step3)
3.1 飽和判別
サンプルポイント4画素に飽和画素が含まれるか否かを判断し、次式を一つでも満たさない場合、飽和画素があると判断し、本サンプルポイントは使用しないで、ステップ2に戻る。
【0066】
Wb<BrightnessThresholdWb
Gb<BrightnessThresholdGb
Gr<BrightnessThresholdGr
Wr<BrightnessThresholdWr
3.2 ノイズ判別
サンプルポイント4画素が、S/Nが悪い場合、つまり次式を満たさない場合、ノイズ画素であると判断し、本サンプルポイントは使用しないで、ステップ2に戻る。
【0067】
(Wb+Gb+Gr+Wr)/4>DarkThreshold
(step4)
サンプルポイントにおいて、以下の式の値を求める。
【0068】
X1=((Wr−Gb)−(Wb−Gr))/(Wr+Gb) (1)
Y1=((Wr−Gb)+(Wb−Gr))/(Wb+Gr) (2)
(step5)
((Wr−Gb)−(Wb−Gr))/(Wr+Gb)をX軸、((Wr−Gb)+(Wb−Gr))/(Wb+Gr)をY軸にとり、式(1)(2)が、XY軸上に設けた所定の領域内にある場合、つまり以下の条件式を満たす場合、
a<X1<b、c<Y1<d (3)
同サンプルポイントをWB設定するためのデータとして有効とみなされ、ステップ4へ進み、式(3)を満たさない場合はステップ8に進む。
【0069】
(step6)
6.1
まず、同サンプルポイントにおいて、以下の式を用いて、WB座標におけるサンプルポイントのXY軸値の平均値、及び、輝度値を求める。
【0070】
AverageX=X1
AverageY=Y1
AverageBrightness=(Wb+Gr+Gb+Wr)/2
6.2
同サンプルポイントがWB設定有効データとみなされた最初のサンプルポイントである場合は、図7に示すような値をパラメータとして持つサンプルポイントグループを作り、ステップ6.1で求めた値、及び、同ポイントの画素値を代入する。
【0071】
GpX=AverageX
GpY=AverageY
GpBrightness=AverageBrightness
GpWb=Wb
GpGr=Gr
GpGb=Gb
GpWr=Wr
GpNumber=1
GpWeight=1
6.3
また、同サンプルポイントがWB設定有効データとみなされた最初でないサンプルポイントである場合は、既存のサンプルポイントグループのGpX、GpY、GpBrightnessの値を用いて、以下の条件式を満たすときに、同サンプルポイントはそのサンプルポイントグループに含まれると判断し、サンプルポイントグループに含ませる。
【0072】
また、全てのサンプルポイントグループに含ませることができない場合は、同サンプルポイントを基準とする新たなサンプルポイントグループを作成する。(step6.2と同じ処理)
(step7)
全てのサンプルポイントにおいて、ステップ6の処理が終了したら、ステップ6で作られた一つあるいは複数個のサンプルポイントグループの中から、本当の白のグループをさがすわけであるが、実際にはどれが白であるかわからない。そこで、輝度の高いものは白であるという仮定をして、前記複数のサンプルポイントグループの輝度情報GpBrightnessを用いて、輝度の大きいものに重み付けを行う。重み付けは以下の式で行なう。また、本重み付け処理を行うか行わないかは、ユーザが予め設定可能である。
【0073】
8.1
ステップ4で求め座標にあらわしたホワイト点(X1,Y1)(X2,Y2)が所定範囲内にないものとステップ5(3)式で判別されたならば、同座標点を所定範囲枠上に移動し、WB’、Wr’を新たに求め直す。
【0074】
8.2
この色クリップされたサンプルポイントの総数をSN2とし、色クリップによって求められる積分値をWb’,Gr’,Gb’,Wr’とする。
【0075】
(step9)
9.1
ステップ6及び7で得られた全てのサンプルポイントグループに対して、以下の式を用いて、白判別範囲内の積分値(SWb,SGr,SGb,SWr)を求める。
【0076】
SWb=SWb+GpWb*GpWeight
SGr=SGr+GpGr*GpWeight
SGb=SGb+GpGb*GpWeight
SWr=SWr+GpWr*GpWeight
9.2
また、同時に白とみなされたサンプルポイント数SN1を求める。
【0077】
SN1=SN1+GpNumber
(step10)
サンプル数(SN1+SN2)が0または所定以上得られていなければ、ホワイトバランス調整データとして、所定の色温度(例えば5000K)のホワイトバランス調整値を用いる。
【0078】
(step11)
白撮影時の平均輝度レベルとしての、
SY=(SWb+SGr+SGb+SWr)/4
を求め、この平均輝度レベルに対する各色の積分値の比率を求める。
【0079】
gwb=SY/(2*SWb)
ggr=SY/(2*SGr)
ggb=SY/(2*SGb)
gwr=SY/(2*SWr)
(step12)
クリップ時の平均輝度レベルとしての
SY’=(SWb’+SGr’+SGb’+SWr’)/4
を求め、この平均輝度レベルに対する各色の積分値の比率を求める。
【0080】
gwb’=SY’/(2*SWb’)
ggr’=SY’/(2*SGr’)
ggb’=SY’/(2*SGb’)
gwr’= SY’/(2*SWr’)
(step13)
ステップ11及び12で得られた、各色の積分値の比率と、白判別範囲内の積分サンプル数SN1と色クリップによる積分サンプル数SN2より、ホワイトバランス調整データ(wwb,wgr,wgb,wwr)を作る。
【0081】
例えば、
のような処理を施す。これらの値をホワイトバランス調整データとして記憶する。
【0082】
上記処理で得られたホワイトバランス調整データを、撮像素子から得られた画素毎の信号値にかけることでホワイトバランスをとることができる。以上、本実施例はフィルタが4色の場合を考えたが、3色の場合でも同様の操作でホワイトバランス調整データを得ることができるのは明白である。
【0083】
(実施例3)
図14は本発明の実施例3のホワイトバランスの処理フローチャートの1部分であり、図2におけるステップ6に相当する部分である。ここは、ホワイトバランスグループを作成した後、グループに重み付けをする部分であるが、本実施例は、この重み付けに、撮影時の照度情報を用いることを特徴とする。この照度情報とは例えばEV値でありフラッシュOnOffの情報である。
【0084】
カメラ側から情報としてEV値をもらい、EV値が大きい場合は外で撮影(太陽光)したものである場合が大きいので、図15に示す(a)のように白座標範囲を限定する。また、逆にEV値が小さいのは夕日、もしくは人工光と限定し、図15(b)のように白座標範囲を限定する。また、フラッシュがONのときには図15(c)のように白座標範囲を限定する。ここで、サンプルポイントグループすべてに対し、以下のように重み付けを行なう。つまり、限定座標範囲にあるホワイトバランスグループの重みを増す。
【0085】
このような重み付けを行なうことで、白の輝度の低い場合にも、より好ましいホワイトバランスを行なうことができ、また、限定座標範囲に入らない点が白である場合でも、重み付けによる白グループ選択を行っているため、ホワイトバランスがおおきくずれることはない。
【0086】
また、本実施例における重み付けは実施例2におけるステップ7に用いても、また、実施例1及び実施例2の重み付けの手法と組み合わせて用いても、さしつかえない。
【0087】
【発明の効果】
以上説明したように、本発明によれば、ホワイトバランスを良好に調整できる撮像装置を提供することができる。
すなわち、本発明では、全画面のうち任意の数に間引かれた参照ブロックに、画像のエッジか含まれるか否かによって参照ブロックが白色判定に適しているか判断しているため、例えば、少数画素のブロックからであっても、被写体の色温度を正確にかつ高速に求めることが出来る。
【図面の簡単な説明】
【図1】 第1の実施例のホワイトバランス処理のフローチャートである。
【図2】 第1の実施例のホワイトバランス処理のフローチャートである。
【図3】 第1の実施例のホワイトバランス処理のフローチャートである。
【図4】 第1の実施例のWB検出回路を用いた電子カメラの信号処理ブロック図である。
【図5】 撮像素子の色フィルタ配列パターンを示した説明図である。
【図6】 ホワイトバランス処理に用いるホワイトバランス座標を示した説明図である。
【図7】 サンプルポイントグループの各パラメータを示した説明図である。
【図8】 第2の実施例のWB検出回路を用いた電子カメラの信号処理ブロック図である。
【図9】 第2の実施例のホワイトバランス処理のフローチャートである。
【図10】 第2の実施例のホワイトバランス処理のフローチャートである。
【図11】 第2の実施例の撮像素子の読み出し手法を示した説明図である。
【図12】 白判別曲線範囲幅の決定手法を示した説明図である。
【図13】 第2の実施例における白判別範囲座標を示した説明図である。
【図14】 第3の実施例のホワイトバランスの処理の一部分を示すフローチャートである。
【図15】 第3の実施例の白座標範囲の決定の説明図である。
【図16】 従来例のデジタル電子カメラのブロック図である。
【図17】 従来例のブロック図である。
【図18】 従来例のホワイトバランス制御の説明図である。[0001]
BACKGROUND OF THE INVENTION
The present invention belongs to the technical field of imaging devices that capture still images.
[0002]
[Prior art]
FIG. 16 is a block diagram of a conventional digital electronic camera.
[0003]
In FIG. 16,
[0004]
FIG. 17 is a block diagram showing the internal configuration of the 303 imaging signal processing circuit and its periphery.
[0005]
FIG. 18A is a detailed drawing of 408AWB, which is a clip circuit that inputs a color difference signal (R−Y, B−Y) and restricts input of a large amplitude exceeding a predetermined value with respect to the amplitude of the signal. The color difference signal and the luminance signal that have passed through the clipping circuit are divided into a plurality of blocks, for example, one screen, integrated for each divided block, and white in coordinates formed by (RY) and (BY). A change range at the time of color temperature change is provided as a white discrimination range (as shown in FIG. 18B), and it is determined whether the integrated value for each block is within the white discrimination range on the same coordinate. The
[0006]
[Problems to be solved by the invention]
The white balance control according to the conventional example converges to a control state with the passage of time in order to adapt at the time of moving image shooting. However, in order to apply the white balance control based on the above-described conventional example in still image shooting, the image sensor is once exposed before image shooting (main exposure), and a color difference signal is generated from the exposed signal using a signal processing circuit. After the color temperature situation is detected from the position on the coordinates of (RY) and (BY) by the above-described conventional white balance detection and an adjustment value at the same color temperature is obtained, the adjustment value obtained previously by performing the main exposure. Adjust the gain using to adjust the white balance.
[0007]
In this way, it is necessary to detect the correct color temperature with a single white balance detection. However, as in the past, coordinates are created with (RY) and (BY), and a white discrimination range is set on the coordinates. In this method, white photography is performed when a certain color is photographed at a low luminance and at a certain color temperature (particularly, a color temperature within the white discrimination range and far from the intersection of the RY axis and the BY axis). In both cases, the white temperature falls within the white discrimination range, so that it is difficult to specify the color temperature and the accurate color temperature cannot be detected. For example, as shown in FIG. 18C, the relationship between RY and Y is a region surrounded by three points a, b, and o when the color temperature change is between α and β. Exists. On the other hand, it is assumed that a certain color (a color) exists in an area surrounded by three points c, d, and o. When white is discriminated at the RY level (e) as in the prior art, the area (F ) Is also included, which hinders color temperature detection.
[0008]
The present invention has been made to solve the above-described problems, and is an imaging device capable of adjusting white balance satisfactorily.PlaceOfferChallenge to doIt is what.
[0009]
[Means for Solving the Problems]
In order to solve the above problems, in the present invention, the imaging apparatus is as follows (1)., (2)Configure as follows.
(1)In an imaging device having a white balance adjustment function,
An image sensor having a plurality of color filters having different spectral characteristics;
The output signal from the image sensor is divided into a plurality of blocks based on the unit arrangement in the arrangement of the plurality of color filters, the output signals of some of the blocks are thinned out, and the image by the output signal of each block after thinning out It is determined whether the output signal of the block can be used for the white balance adjustment based on the edge condition ofAppropriate judgment means,
WithImaging device.
(2)In the imaging apparatus according to (1),
The situation of the edge of the image by the output signal of each block is whether or not the difference between the output signal values of the filters of the same color in each block is smaller than a predetermined value.Imaging equipmentPlace.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described in detail by way of examples.
[0019]
【Example】
Embodiments of the present invention will be described below with reference to the drawings.
[0020]
Example 1
FIG. 4 is a block diagram showing the flow of signal processing of the electronic camera according to the first embodiment of the present invention. Since the image sensor in the present embodiment performs frame reading, the output from the image sensor is output as a filter attached to the image sensor. First, the black level is adjusted using the integrated value of each filter output in the optical black region. Next, white balance processing is performed so that the output gains of Ma, Gr, Cy, and Ye at the white point are the same.
[0021]
In order to create a luminance signal (Y), aperture correction is performed after a low-pass filter is applied to remove moire caused by the color filter. Here, a high-pass filter is applied horizontally and vertically, and the gain is adjusted. The peak is increased when the aperture signal has a small amplitude, and the peak is decreased when the aperture signal is large. To Peak processing is performed, horizontal and vertical are added, and further gain is applied to the luminance component (Yn).
[0022]
In order to generate the color difference signals (R−Y, B−Y), first, the signals of the four colors are synchronized by the synchronization circuit, and pixel interpolation is performed so that the four color signals are assigned to the entire area of the imaging surface. Next, the MGYC signal is converted into an RGB signal using a 4 × 3 matrix. At this time, the matrix is used such that the color temperature of the subject is determined from the white balance information and the color reproduction at the color temperature is the best. Next, the RGB signals are converted into RY and BY signals, a low-pass filter for moire reduction is applied, and saturation achromatic processing is performed with reference to the Y signals.
[0023]
The luminance signal (Y) and the color difference signals (R−Y, B−Y) produced in this way are converted into RGB signals, subjected to gamma correction processing, and then recorded.
[0024]
Next, white balance processing, which is the main point of the present invention, will be described in detail. When the CCD complementary color filters are arranged as shown in FIG. 5, the entire arrangement is formed by repeating this unit block with the 8-pixel arrangement shown in the figure as a unit block. Ma1, Ma2, Gr1, Gr2, Cy1, Cy2, Ye1, and Ye2 are set in accordance with the color filters of the eight pixels. The output of the same color filter is divided into two colors (Ma1 and Ma2, Gr1 and Gr2, Cy1 and Cy2, Ye1 and Ye2), and the output levels of the pixels of the same color are different because the colors of adjacent pixels are different. Because.
[0025]
Hereinafter, the white balance processing will be described with reference to the flowcharts of FIGS.
[0026]
(Step 1) Initial setting
1.1 Error absorption
A predetermined coefficient is applied to all the image signals output from the CCD image sensor. This corrects that the output values from the filters of the same color differ when the same color is photographed due to the arrangement of the color filters on the CCD image sensor. This will be described with reference to FIG. 5. For example, when a white plate is photographed, the signal values may differ greatly between Ma1 and Ma2 and between Gr1 and Gr2 depending on the image sensor. This is considered to be influenced by the Cy and Ye filters, and it is necessary to absorb by applying a coefficient that makes this value the same.
[0027]
Ma1 = Ma1 * Km1
Ma2 = Ma2 * Km2
Gr1 = Gr1 * Kg1
Gr2 = Gr2 * Kg2
Cy1 = Cy1 * Kc1
Cy2 = Cy2 * Kc2
Ye1 = Ye1 * Ky1
Ye2 = Ye2 * Ky2
(However, each coefficient K * is a value measured in advance for each CCD imager)
1.2 White discrimination range width setting
Take a picture of a white board in advance at various color temperatures.
(Ye-Cy) / Cy on the X axis (the influence of the change in color temperature is large)
(Ma-Gr) / Gr as Y axis
The plot is called a white discrimination curve, as shown in FIG. The value in the X-axis direction is sensitive to changes in color temperature. The color temperature decreases as going in the + direction. The Y axis direction is sensitive to green and red. Therefore, green and red can be corrected by changing the width dy of the Y axis. In this embodiment, dy is changed depending on the illuminance of the subject or the presence or absence of flicker. The light component of the fluorescent lamp has a green spectrum compared to sunlight. In other words, the subject color is more green than when shooting in sunlight. In order to correct this, green correction can be performed by widening the white discrimination region in the green direction of the Y axis (the value of dy in FIG. 6). Therefore, if the illuminance of the subject is dark, there is a high possibility of being under fluorescent light, and if there is flicker, it is under fluorescent light, so the value of dy is increased. 12A shows the white range width in the case of normal light photography, and FIG. 12B shows the white range width in the case of fluorescent light photography.
[0028]
Further, the color temperature of the subject can be predicted to some extent from the presence / absence of flash light and the illuminance information of the subject. Thus, more accurate white balance can be achieved by limiting the X-axis range. FIG. 12C is a diagram showing a white range width at the time of flash photography, and is limited to dx1 based on flash-on and illuminance information with respect to a normal X-axis range dx.
[0029]
(Step 2) Extraction of sample points
An 8-pixel unit as shown in FIG. 3 is called one sample point, and a new sampling point is selected.
[0030]
(Step 3) Appropriate judgment processing at sample points
3.1 Saturation discrimination
It is determined whether or not a saturated pixel is included in 8 sample points. If even one of the following expressions is not satisfied, it is determined that there is a saturated pixel, and this sample point is not used, and the process returns to step 2 Extract sampling points.
[0031]
Ma1 <BrightThresholdMagenta
Ma2 <BrightThresholdMagenta
Gr1 <BrightThresholdGreen
Gr2 <BrightThresholdGreen
Cy1 <BrightThresholdCyan
Cy2 <BrightThresholdCyan
Ye1 <BrightThresholdYellow
Ye2 <BrightThresholdYellow
3.2 Noise discrimination
If the S / N of the 8 sample points is poor, that is, if the following equation is not satisfied, it is determined that the pixel is a noise pixel, and this sample point is not used, and the process returns to Step 2.
[0032]
(Ma1 + Ma2 + Gr1 + Gr2 + Cy1 + Cy2 + Ye1 + Ye2) / 8> DarkTHreshold
3.3 Edge discrimination
If the following four formulas are satisfied in the 8 pixels of the sample point, the process proceeds to step 4. If any of the 8 points is not satisfied, it is determined that the sample point includes an edge. Return.
[0033]
EdgeThresholdMagenta> | Ma1-Ma2 |
EdgeThresholdGreen> | Gr1-Gr2 |
EdgeThresholdCyan> | Cy1-Cy2 |
EdgeThreshold Yellow> | Ye1-Ye2 |
(Step 4)
At the sample point, the value of the following equation is obtained.
[0034]
X1 = (Ye1-Cy1) / Cy1 (1)
Y1 = (Ma1-Gr1) / Gr1 (2)
X2 = (Ye2-Cy2) / Cy2 (3)
Y2 = (Ma2-Gr2) / Gr2 (4)
(Step 5)
When (Ye-Cy) / Cy is on the X axis and (Ma-Gr) / Gr is on the Y axis, and equations (1) to (4) are within a predetermined white area provided on the XY axis, that is, If the conditional expression of
a <X1 <b, c <Y1 <d and a <X2 <b, c <Y2 <d (5)
The sample point is regarded as valid as data for setting the WB, and the process proceeds to step 6, and if the expression (5) is not satisfied, the process proceeds to step 8.
[0035]
(Step 6)
6.1
First, at the same sample point, the average value of the XY axis values of the sample point in the WB coordinates and the luminance value are obtained using the following equations.
[0036]
AverageX = (X1 + X2) / 2
AverageY = (Y1 + Y2) / 2
AverageBrightness = (Ma1 + Ma2 + Gr1 + Gr2 + Cy1 + Cy2 + Ye1 + Ye2) / 8
6.2
When the same sample point is the first sample point regarded as the WB setting valid data, a sample point group having values as shown in FIG. 7 as parameters is created, and the values obtained in step 6.1 and Substitute the pixel value of the point.
[0037]
GpX = AverageX
GpY = AverageY
GpBrightness = AverageBrightness
GpMa1 = Ma1
GpMa2 = Ma2
GpGr1 = Gr1
GpGr2 = Gr2
GpCy1 = Cy1
GpCy2 = Cy2
GpYe1 = Ye1
GpYe2 = Ye2
GpNumber = 1
GpWeight = 1
6.3
Further, when the sample point is not the first sample point considered as the WB setting valid data, when the following conditional expression is satisfied using the values of GpX, GpY, and GpBrightness of the existing sample point group, The sample point is determined to be included in the sample point group, and is included in the sample point group.
[0038]
If the sample points cannot be included in all the sample point groups, a new sample point group based on the sample points is created. (Same processing as step 6.2)
(Step 7)
When the processing of
[0039]
8.1
If the white point (X1, Y1) (X2, Y2) represented in the coordinates obtained in
[0040]
Ma1 '= (1 + Y1') * Gr1
Ma2 '= (1 + Y2') * Gr2
Ye1 '= (1 + X1') * Cy1
Ye2 '= (1 + X2') * Cy2
8.2
However, the coordinate point is moved to a coordinate on a predetermined range frame closest to the coordinate point as shown in the figure. This coordinate movement processing is called color clip processing. Let SN2 be the total number of sample points clipped by this color, and let Ma1 ', Ma2', Gr1 ', Gr2', Cy1 ', Cy2', Ye1 ', Ye2' be the integrated values obtained by the color clip.
[0041]
(Step 9)
9.1
For all the sample point groups obtained in
[0042]
SMa1 = SMa1 + GpMa1 * GpWeight
SMa2 = SMa2 + GpMa2 * GpWeight
SGr1 = SGr1 + GpGr1 * GpWeight
SGr2 = SGr2 + GpGr2 * GpWeight
SCy1 = SCy1 + GpCy1 * GpWeight
SCy2 = SCy2 + GpCy2 * GpWeight
SYe1 = SYe1 + GpYe1 * GpWeight
SYe2 = SYe2 + GpYe2 * GpWeight
9.2
At the same time, the number of sample points SN1 regarded as white is obtained.
[0043]
SN1 = SN1 + GpNumber
(Step 10)
If the number of samples (SN1 + SN2) is not zero or greater than a predetermined value, a white balance adjustment value of a predetermined color temperature (for example, 5000K) is used as white balance adjustment data.
[0044]
(Step 11)
As an average brightness level when shooting white,
SY = (SMa1 + SMa2 + SGr1 + SGr2 + SCy1 + SCy2 + SYe1 + SYe2) / 8
And the ratio of the integrated value of each color to the average luminance level is obtained.
[0045]
As the average brightness level when clipping
SY '= (SMa1' + SMa2 '+ SGr1' + SGr2 '+ SCy1' + SCy2 '+ SYe1' + SYe2 ') / 8
And the ratio of the integrated value of each color to the average luminance level is obtained.
[0046]
The white balance adjustment data (wmg1, wg1, wcy1, wye1, wmg2) is obtained from the ratio of the integral values of the respective colors obtained in steps 11 and 12, the integration sample number SN1 within the white discrimination range and the integration sample number SN2 by the color clip. , Wg2, wcy2, and wye2).
[0047]
For example,
Apply the following process. These values are stored as white balance adjustment data.
[0048]
The white balance can be obtained by applying the white balance adjustment data obtained by the above processing to the signal value for each pixel obtained from the image sensor.
[0049]
As described above, coordinates for white balance are created using the signal values from the image sensor, and the white points are weighted on the assumption that the luminance value is relatively higher than the sample points that have entered the white area at the coordinates. Since the integration processing is performed at the sample point after the image is processed, even if there is little white in the image, it is possible to avoid the white balance from being greatly affected by other colors due to weighting. It is.
[0050]
In addition, the image pickup device includes at least one means for blocking the output signal from the image pickup device for each filter array and a means for thinning a plurality of blocks arbitrarily or in a staggered manner. It is not necessary to perform calculation for these pixels, and the processing speed can be increased.
[0051]
Further, means for determining whether or not there is a saturated pixel in the block divided by the dividing means, means for determining whether or not there is a noise pixel, and whether or not an edge of the image is included in the block. Since the appropriate determination means including at least one of the determination means is provided, it can be determined whether or not the reference block is a block suitable for obtaining the color temperature of the subject.
[0052]
In addition, on the color filter array, light of a filter of another color adjacent to the signal value of a pixel of a certain color filter leaks, and as a result, the values of pixels of the same color in the same block of the same subject are different from each other. It is possible to avoid the problem that the color temperature of the subject due to the image cannot be determined by photographing a white board and applying a certain coefficient for each color filter so that the signal values of the same color pixels in the same block are the same. It becomes possible.
[0053]
Also, by changing the white discrimination range based on information such as the illuminance information of the subject, flicker information, and the presence / absence of flash light, the green component correction when the light source is a fluorescent lamp, white balance during flash, daytime synchronization It becomes possible to obtain a more accurate white balance during shooting.
[0054]
Also, instead of (R−Y) / Y, (B−Y) / Y, (Ma−Gr) / Gr or (Ma−Gr) / Ma and (Ye−Cy) / Cy or (Ye−Cy) / The color temperature can be detected directly from the readout signal of the image sensor having the color filter of (Ma, Gr, Cy, Ye) by making coordinates with Ye and detecting the color temperature. Therefore, the exposure and signal processing for this can be omitted, and the color temperature can be detected easily and accurately. Even when shooting a subject containing only a small amount of white, white coordinates can be determined by giving coordinates within the white determination range in the form of (Ma-Gr) / Gr = a, (Ye-Cy) / Cy = b. The image sensor output can be replaced by simple processing in the form of Ma ′ = (1 + a) * Gr, Ye ′ = (1 + b) * Cy within the range, and the white balance does not greatly deviate even under the shooting conditions. Balance adjustment is possible.
[0055]
As described above, although the case where the filter has four colors is considered in the present embodiment, it is obvious that the white balance adjustment data can be obtained by the same operation even in the case of three colors.
[0056]
(Example 2)
FIG. 8 is a diagram showing a signal processing flow of the electronic camera according to the second embodiment of the present invention. Since the image sensor in the present embodiment performs field readout, the output from the image sensor is read by adding two pixels in the vertical direction as shown in FIG. In this figure,
Wb = Ma + Cy
Gr = G + Ye
Gb = Cy + G
Wr = Ye + Ma
It is. If it is assumed that the color filter is changed from (Ma, G, Cy, Ye) to (Wb, Gr, Gb, Wr), the same processing as the frame reading is performed.
[0057]
First, the black level is adjusted using the integrated value of each filter output in the optical black region. Next, white balance processing is performed so that the output gains of Wb, Gr, Gb, and Wr at the white point are the same.
[0058]
In order to create the luminance signal (Y), aperture correction is performed after a horizontal low-pass filter is applied to remove moire caused by the color filter. Here, a high-pass filter is applied horizontally and vertically, and the gain is adjusted. The peak is increased when the aperture signal has a small amplitude, and the peak is decreased when the aperture signal is large. To Peak processing is performed, horizontal and vertical are added, and further gain is applied to the luminance component (Yn).
[0059]
In order to generate the color difference signals (R−Y, B−Y), first, the signals of the four colors are synchronized by the synchronization circuit, and pixel interpolation is performed so that the four color signals are assigned to the entire area of the imaging surface. Next, the WbGrGbWr signal is converted into an RGB signal using a 4 × 3 matrix. At this time, the matrix is used such that the color temperature of the subject is determined from the white balance information and the color reproduction at the color temperature is the best. Next, the RGB signals are converted into RY and BY signals, a low-pass filter for moire reduction is applied, and saturation achromatic processing is performed with reference to the Y signals.
[0060]
The luminance signal (Y) and the color difference signals (R−Y, B−Y) produced in this way are converted into RGB signals, subjected to gamma correction processing, and then recorded.
[0061]
Next, white balance processing, which is the main point of the present invention, will be described in detail. When the CCD complementary color filters are arranged as shown in FIG. 11A, the entire arrangement is formed by repeating this unit block with the 8-pixel arrangement shown in the figure as a unit block. Here, in order to perform field reading, a signal as shown in FIG. 11B is read in one field.
[0062]
Hereinafter, the white balance process will be described with reference to the flowcharts of FIGS.
[0063]
(Step 1) Setting the white discrimination range
Take a picture of a white board in advance at various color temperatures.
((Wr−Gb) − (Wb−Gr)) / (Wr + Gb) on the X axis
((Wr−Gb) + (Wb−Gr)) / (Wb + Gr) on the Y axis
A plot is shown in FIG. As in the first embodiment, the X-axis width is changed depending on the illuminance of the subject and the presence or absence of flicker, and the Y-axis width is changed depending on the presence or absence of the flash and the illuminance of the subject.
[0064]
(Step 2) Sample point extraction
A unit of four pixels (Wb, Gb, Gr, Wr) after addition as shown in FIG. 11 is called one sample point, and a new sampling point is selected.
[0065]
(Step3)
3.1 Saturation discrimination
It is determined whether or not a saturated pixel is included in the four sample points. If even one of the following expressions is not satisfied, it is determined that there is a saturated pixel, the present sample point is not used, and the process returns to step 2.
[0066]
Wb <BrightnessThreshold Wb
Gb <BrightnessThresholdGb
Gr <BrightnessThresholdGr
Wr <BrightnessThresholdThresholdWr
3.2 Noise discrimination
If four sample points have poor S / N, that is, if the following equation is not satisfied, it is determined that the pixel is a noise pixel, and this sample point is not used, and the process returns to step 2.
[0067]
(Wb + Gb + Gr + Wr) / 4> DarkThreshold
(Step 4)
At the sample point, the value of the following equation is obtained.
[0068]
X1 = ((Wr−Gb) − (Wb−Gr)) / (Wr + Gb) (1)
Y1 = ((Wr−Gb) + (Wb−Gr)) / (Wb + Gr) (2)
(Step 5)
Taking ((Wr−Gb) − (Wb−Gr)) / (Wr + Gb) as the X axis and ((Wr−Gb) + (Wb−Gr)) / (Wb + Gr) as the Y axis, equations (1) and (2) Is within a predetermined area provided on the XY axis, that is, when the following conditional expression is satisfied:
a <X1 <b, c <Y1 <d (3)
The sample point is regarded as valid as data for setting the WB, and the process proceeds to step 4, and if the expression (3) is not satisfied, the process proceeds to step 8.
[0069]
(Step 6)
6.1
First, at the same sample point, the average value of the XY axis values of the sample point in the WB coordinates and the luminance value are obtained using the following equations.
[0070]
AverageX = X1
AverageY = Y1
AverageBrightness = (Wb + Gr + Gb + Wr) / 2
6.2
When the same sample point is the first sample point regarded as the WB setting valid data, a sample point group having values as shown in FIG. 7 as parameters is created, and the values obtained in step 6.1 and Substitute the pixel value of the point.
[0071]
GpX = AverageX
GpY = AverageY
GpBrightness = AverageBrightness
GpWb = Wb
GpGr = Gr
GpGb = Gb
GpWr = Wr
GpNumber = 1
GpWeight = 1
6.3
Further, when the sample point is not the first sample point considered as the WB setting valid data, when the following conditional expression is satisfied using the values of GpX, GpY, and GpBrightness of the existing sample point group, The sample point is determined to be included in the sample point group, and is included in the sample point group.
[0072]
If the sample points cannot be included in all the sample point groups, a new sample point group based on the sample points is created. (Same processing as step 6.2)
(Step 7)
When the processing of
[0073]
8.1
If the white point (X1, Y1) (X2, Y2) represented in the coordinates obtained in
[0074]
8.2
Let SN2 be the total number of sample points clipped by this color, and let Wb ', Gr', Gb ', Wr' be the integral values obtained by the color clip.
[0075]
(Step 9)
9.1
For all the sample point groups obtained in
[0076]
SWb = SWb + GpWb * GpWeight
SGr = SGr + GpGr * GpWeight
SGb = SGb + GpGb * GpWeight
SWr = SWr + GpWr * GpWeight
9.2
At the same time, the number of sample points SN1 regarded as white is obtained.
[0077]
SN1 = SN1 + GpNumber
(Step 10)
If the number of samples (SN1 + SN2) is not zero or greater than a predetermined value, a white balance adjustment value of a predetermined color temperature (for example, 5000K) is used as white balance adjustment data.
[0078]
(Step 11)
As an average brightness level when shooting white,
SY = (SWb + SGr + SGb + SWr) / 4
And the ratio of the integrated value of each color to the average luminance level is obtained.
[0079]
gwb = SY / (2 * SWb)
ggr = SY / (2 * SGr)
ggb = SY / (2 * SGb)
gwr = SY / (2 * SWr)
(Step 12)
As the average brightness level when clipping
SY '= (SWb' + SGr '+ SGb' + SWr ') / 4
And the ratio of the integrated value of each color to the average luminance level is obtained.
[0080]
gwb '= SY' / (2 * SWb ')
ggr '= SY' / (2 * SGr ')
ggb '= SY' / (2 * SGb ')
gwr '= SY' / (2 * SWr ')
(Step 13)
White balance adjustment data (wwb, wgr, wgb, wwr) is obtained from the ratio of the integrated values of the respective colors obtained in steps 11 and 12, the integrated sample number SN1 within the white discrimination range, and the integrated sample number SN2 by the color clip. create.
[0081]
For example,
Apply the following process. These values are stored as white balance adjustment data.
[0082]
The white balance can be obtained by applying the white balance adjustment data obtained by the above processing to the signal value for each pixel obtained from the image sensor. As described above, although the case where the filter has four colors is considered in the present embodiment, it is obvious that the white balance adjustment data can be obtained by the same operation even in the case of three colors.
[0083]
(Example 3)
FIG. 14 is a part of a white balance processing flowchart according to the third embodiment of the present invention, and corresponds to step 6 in FIG. This is a part for weighting the group after the white balance group is created, but this embodiment is characterized in that illuminance information at the time of photographing is used for this weighting. The illuminance information is, for example, an EV value and information on the flash OnOff.
[0084]
When the EV value is obtained from the camera side and the EV value is large, the white coordinate range is limited as shown in (a) of FIG. 15 because it is often taken outside (sunlight). On the contrary, the EV value is limited to sunset or artificial light, and the white coordinate range is limited as shown in FIG. When the flash is on, the white coordinate range is limited as shown in FIG. Here, all sample point groups are weighted as follows. That is, the weight of the white balance group in the limited coordinate range is increased.
[0085]
By performing such weighting, a more preferable white balance can be achieved even when the brightness of white is low, and even when a point that does not fall within the limited coordinate range is white, white group selection by weighting can be performed. The white balance is not greatly changed because it is done.
[0086]
The weighting in this embodiment can be used for step 7 in the second embodiment or in combination with the weighting method in the first and second embodiments.
[0087]
【The invention's effect】
As described above, according to the present invention, an imaging device capable of satisfactorily adjusting white balance.PlaceCan be provided.
That is, in the present invention, since it is determined whether the reference block is suitable for the white determination based on whether or not the reference block thinned out to any number of the entire screen includes the edge of the image, for example, a small number Even from a block of pixels, the color temperature of the subject can be determined accurately and at high speed.
[Brief description of the drawings]
FIG. 1 is a flowchart of white balance processing according to a first embodiment.
FIG. 2 is a flowchart of white balance processing according to the first embodiment.
FIG. 3 is a flowchart of white balance processing according to the first embodiment;
FIG. 4 is a signal processing block diagram of an electronic camera using the WB detection circuit of the first embodiment.
FIG. 5 is an explanatory diagram showing a color filter array pattern of an image sensor.
FIG. 6 is an explanatory diagram showing white balance coordinates used for white balance processing.
FIG. 7 is an explanatory diagram showing parameters of a sample point group.
FIG. 8 is a signal processing block diagram of an electronic camera using a WB detection circuit according to a second embodiment.
FIG. 9 is a flowchart of white balance processing according to the second embodiment.
FIG. 10 is a flowchart of white balance processing according to the second embodiment.
FIG. 11 is an explanatory diagram illustrating a reading method of the image sensor according to the second embodiment.
FIG. 12 is an explanatory diagram showing a method for determining a white discrimination curve range width;
FIG. 13 is an explanatory diagram showing white discrimination range coordinates in the second embodiment.
FIG. 14 is a flowchart illustrating a part of white balance processing according to the third embodiment;
FIG. 15 is an explanatory diagram of determination of a white coordinate range according to the third embodiment.
FIG. 16 is a block diagram of a conventional digital electronic camera.
FIG. 17 is a block diagram of a conventional example.
FIG. 18 is an explanatory diagram of white balance control of a conventional example.
Claims (2)
分光特性の異なる複数の色フィルタを有する撮像素子と、
前記撮像素子からの出力信号を、前記複数の色フィルタの配列における単位配列に基づいて複数のブロックにブロック化し、その一部のブロックの出力信号を間引き、間引き後の各ブロックの出力信号による画像のエッジの状況に基づいて、当該ブロックの出力信号が前記ホワイトバランス調整のために使用できるか否かを判断する適正判断手段と、
を備えたことを特徴とする撮像装置。 In an imaging device having a white balance adjustment function,
An image sensor having a plurality of color filters having different spectral characteristics;
The output signal from the image sensor is divided into a plurality of blocks based on the unit arrangement in the arrangement of the plurality of color filters, the output signals of some of the blocks are thinned out, and the image by the output signal of each block after thinning out Appropriate determination means for determining whether or not the output signal of the block can be used for the white balance adjustment based on the edge state of
Imaging apparatus characterized by comprising a.
前記各ブロックの出力信号による画像のエッジの状況は、各ブロックにおける同色のフィルタの出力信号値の差が予め決められた値より小さいか否かであることを特徴とする撮像装置。 The imaging device according to claim 1,
An image pickup apparatus characterized in that a state of an edge of an image by an output signal of each block is whether or not a difference between output signal values of filters of the same color in each block is smaller than a predetermined value .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP01669696A JP3897370B2 (en) | 1996-02-01 | 1996-02-01 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP01669696A JP3897370B2 (en) | 1996-02-01 | 1996-02-01 | Imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09214984A JPH09214984A (en) | 1997-08-15 |
JP3897370B2 true JP3897370B2 (en) | 2007-03-22 |
Family
ID=11923468
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP01669696A Expired - Fee Related JP3897370B2 (en) | 1996-02-01 | 1996-02-01 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3897370B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000165686A (en) * | 1998-11-20 | 2000-06-16 | Canon Inc | Color converter, color converting method and storage medium readable by computer |
JP2006287362A (en) * | 2005-03-31 | 2006-10-19 | Eastman Kodak Co | Digital camera and white balance adjustment method |
JP6053501B2 (en) * | 2012-12-21 | 2016-12-27 | キヤノン株式会社 | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD |
-
1996
- 1996-02-01 JP JP01669696A patent/JP3897370B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH09214984A (en) | 1997-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4826028B2 (en) | Electronic camera | |
JP4161295B2 (en) | Color imaging system that expands the dynamic range of image sensors | |
US10630920B2 (en) | Image processing apparatus | |
WO2015190156A1 (en) | Image processing device, imaging device equipped with same, image processing method, and image processing program | |
JP2004015653A (en) | Digital still camera device, video camera device and information terminal device | |
JP4487342B2 (en) | Digital camera | |
US20050264688A1 (en) | Pre-strobo light emission in solid image pickup device | |
JP4539432B2 (en) | Image processing apparatus and imaging apparatus | |
JP5256947B2 (en) | IMAGING DEVICE, IMAGING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM RECORDING PROGRAM FOR EXECUTING THE METHOD | |
JP2003264850A (en) | Digital camera | |
JP3897370B2 (en) | Imaging device | |
JP4649734B2 (en) | Video signal processing apparatus and recording medium on which video signal processing program is recorded | |
WO2022073364A1 (en) | Image obtaining method and apparatus, terminal, and computer readable storage medium | |
JP4272566B2 (en) | Color shading correction method and solid-state imaging device for wide dynamic range solid-state imaging device | |
JP2000165896A (en) | White balance control method and its system | |
JP3943610B2 (en) | Camera and lens unit | |
JP3563508B2 (en) | Automatic focusing device | |
JPH08107560A (en) | Image input device | |
JP2004222160A (en) | Digital camera | |
JPH10271518A (en) | Video camera device | |
JP2004274367A (en) | Digital camera | |
JP2557620B2 (en) | Imaging device | |
JP2007228152A (en) | Solid-state image pick up device and method | |
JP3984666B2 (en) | Imaging device | |
JP3384916B2 (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050316 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060815 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061016 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20061212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20061219 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110105 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120105 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130105 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140105 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |