JP3992476B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP3992476B2
JP3992476B2 JP2001342364A JP2001342364A JP3992476B2 JP 3992476 B2 JP3992476 B2 JP 3992476B2 JP 2001342364 A JP2001342364 A JP 2001342364A JP 2001342364 A JP2001342364 A JP 2001342364A JP 3992476 B2 JP3992476 B2 JP 3992476B2
Authority
JP
Japan
Prior art keywords
component
value
white balance
target
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001342364A
Other languages
Japanese (ja)
Other versions
JP2003143622A (en
Inventor
光章 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2001342364A priority Critical patent/JP3992476B2/en
Publication of JP2003143622A publication Critical patent/JP2003143622A/en
Application granted granted Critical
Publication of JP3992476B2 publication Critical patent/JP3992476B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、画像処理装置に関し、特にたとえばディジタルカメラに適用され、画像信号に色調整を施す、画像処理装置に関する。
【0002】
【従来技術】
ディジタルカメラのような画像処理装置では、撮影された画像信号に白バランス調整が施される。具体的には、画像信号を形成するR信号,G信号およびB信号のレベルが所定関係となるように、R信号およびB信号にゲインxおよびyが付与される。ただし、白バランス調整は画像の一部分のみを対象として実行されるわけではなく、ゲインxおよびyは1フレーム期間にわたって付与される。
【0003】
【発明が解決しようとする課題】
このため、たとえば水色の用紙の上に置かれた青色の主要被写体を撮影すると、用紙の色は白色に変化し、主要被写体の色は水色に変化してしまう。また、ピンク色の用紙の上に置かれた赤色の主要被写体を撮影すると、用紙の色はピンク色から白色に変化し、主要被写体の色はピンク色に変化してしまう。つまり、白バランス調整のみでは、色再現性が低下する場合がある。
【0004】
それゆえに、この発明の主たる目的は、色再現性を改善することができる、画像処理装置を提供することである。
【0005】
【課題を解決するための手段】
この発明に従う画像処理装置は、撮像手段から出力された被写界像に白バランス調整処理を施す調整手段、調整手段によって調整された白バランスを有する被写界像に彩度補正係数を参照した彩度補正処理を施す補正手段、および補正手段によって参照される彩度補正係数を調整手段による調整量の変化が相殺されるように変更する変更手段を備え、白バランス調整処理は既定色範囲に属する色を示す画素の彩度値がゼロに向かうように被写界像の色を調整する処理であり、彩度補正処理は被写界像を形成する各画素の彩度値に彩度補正係数を掛け算する処理である。
【0006】
【作用】
撮像手段から出力された被写界像は、調整手段によって白バランス調整処理を施される。補正手段は、調整手段によって調整された白バランスを有する被写界像に彩度補正係数を参照した彩度補正処理を施す。変更手段は、補正手段によって参照される彩度補正係数を調整手段による調整量の変化が相殺されるように変更する。ここで、白バランス調整処理は、既定色範囲に属する色を示す画素の彩度値がゼロに向かうように被写界像の色を調整する処理である。また、彩度補正処理は、被写界像を形成する各画素の彩度値に彩度補正係数を掛け算する処理である。
【0007】
好ましくは、複数の色にそれぞれ対応する複数の彩度補正係数が保持手段によって保持される。補正手段は、被写界像を形成する各画素に関連する彩度補正係数を保持手段から検出する検出手段を含む。
【0008】
好ましくは、調整手段は、白バランス調整係数を参照して白バランス調整処理を実行する。撮像手段は、被写界像を繰り返し出力する。更新手段は、調整手段によって参照される白バランス調整係数を繰り返し更新する。
【0009】
さらに好ましくは、変更手段は、更新手段によって更新される前後の白バランス調整係数の差分値に注目して変更処理を実行する。
【0012】
【発明の効果】
この発明によれば、色再現性を改善することができる。
【0013】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0014】
【実施例】
図1を参照して、この実施例のディジタルカメラ10は、フォーカスレンズ12を含む。被写体の光学像は、このフォーカスレンズ12を経てイメージセンサ14の受光面に入射される。受光面では、入射された光学像に対応するカメラ信号(生画像信号)が光電変換によって生成される。なお、受光面は、原色ベイヤ配列の色フィルタ(図示せず)によって覆われ、カメラ信号を形成する各々の画素信号は、R,GおよびBのいずれか1つの色情報成分のみを持つ。
【0015】
電源が投入されると、CPU38からタイミングジェネレータ(TG)16,信号処理回路22およびビデオエンコーダ28に処理命令が与えられる。これによって、スルー画像処理が開始される。
【0016】
TG16は、イメージセンサ14の露光およびカメラ信号の読み出しを繰り返し実行する。イメージセンサ14から読み出された各フレームのカメラ信号は、CDS/AGC回路18における周知のノイズ除去およびレベル調整を経て、A/D変換器20でディジタル信号に変換される。
【0017】
信号処理回路22は、A/D変換器20から出力された各フレームのカメラデータに色分離,色調整,YUV変換などの信号処理を施し、輝度成分(Yデータ)および色差成分(Uデータ,Vデータ)からなる画像データを生成する。色調整処理では、まず白バランスが調整され、続いて明度,彩度および色相が補正される。このとき、白バランスを調整するための調整係数(後述するゲインx1およびy1)ならびに明度,彩度および色相を補正するための補正係数(後述する目標L成分値,目標C成分値および目標H成分値)は、CPU38によって決定される。信号処理回路22によって生成された画像データはメモリ制御回路24に与えられ、メモリ制御回路24によってSDRAM26に書き込まれる。
【0018】
ビデオエンコーダ28は、SDRAM26に格納された画像データをメモリ制御回路24に読み出させる。そして、読み出された各フレームの画像データをNTSCフォーマットのコンポジット画像信号にエンコードし、エンコードされたコンポジット画像信号をモニタ30に供給する。モニタ30には、被写体のリアルタイム動画像(スルー画像)が表示される。
【0019】
シャッタボタン40が全押しされると、撮影/記録処理が実行される。まず、CPU38からJPEGコーデック32に圧縮命令が与えられる。JPEGコーデック32は、SDRAM26に格納された1フレーム分の画像データをメモリ制御回路24に読み出させ、読み出された画像データにJPEGフォーマットに準じた圧縮処理を施す。圧縮画像データが得られると、JPEGコーデック32は、生成された圧縮画像データをメモリ制御回路24に与える。圧縮画像データは、メモリ制御回路24によってSDRAM26に格納される。
【0020】
圧縮画像データの格納処理が完了すると、CPU38は、メモリ制御回路24を通してSDRAM26から圧縮画像データを読み出し、読み出した圧縮画像データをI/F回路34を通してメモリカード36に記録する。これによって、メモリカード36内に画像ファイルが作成される。なお、メモリカード36は着脱自在な不揮発性の記録媒体であり、スロット(図示せず)に装着されたときにCPU38によってアクセス可能となる。
【0021】
信号処理回路22は、図2に示すように構成される。A/D変換器20から出力されたカメラデータは、色分離回路22aによって色分離を施される。カメラデータを構成する各々の画素データはR成分,G成分およびB成分のいずれか1つしか持っていないため、各画素が不足する2つの色成分が色分離回路22aによって補完される。色分離回路22aからは、各画素のR成分,G成分およびB成分が同時に出力される。つまり、各画素がR成分,G成分およびB成分を有するRGBデータが、色分離回路22aから出力される。R成分およびB成分は、白バランス調整回路22bを形成するアンプ221bおよび222bを経て積算回路22cおよびLCH変換回路22dに与えられる。アンプ221bではR成分にゲインx1が付与され、アンプ222bではB成分にゲインy1が付与される。一方、G成分は、そのまま積算回路22cおよびLCH変換回路22dに与えられる。
【0022】
画面は、水平方向および垂直方向に16分割され、256個の分割エリアが画面上に形成される。積算回路22cは、R成分,G成分およびB成分を分割エリア毎にかつ同じ色成分毎に積算する。このため、256個の積算値Ir(i),256個の積算値Ig(i)および256個の積算値Ib(i)が1フレーム期間毎に得られる(i=1〜256)。つまり、256個の分割エリアに個別に対応する256個の色評価値が、1フレーム期間毎に求められる。CPU38は、こうして得られた色評価値に基づいて、白バランス調整のための最適ゲインxsおよびysを算出する。
【0023】
具体的には、まず積算値Ir(i)およびIb(i)を積算値Iry(i)およびIby(i)に変換する。積算値Iry(i)およびIby(i)は、色差成分R‐YおよびB‐Yを分割エリア毎に積算した値に等しい。このような積算値Iry(i)およびIby(i)もまた、各分割エリアの色評価値である。
【0024】
続いて、図3(A)に示す数値分布を持つ重み付けテーブル38a(CPU38内に形成)と各分割エリアの積算値Iry(i)およびIby(i)とに基づいて、各分割エリアの重み付け係数k(i)を検出する。重み付けテーブル38aには重み付け係数k(i)として“0”または“1”が格納されており、各々の重み付け係数k(i)は図3(B)に示すグラフに対応している。つまり、B−Y軸およびR−Y軸がそれぞれ17分割され、さらにB−Y軸およびR−Y軸によって区切られた各々の象限が64分割される。重み付け係数k(i)は、こうして形成された290個のエリアに1つずつ割り当てられる。なお、重み付け係数k(i)=1が割り当てられた範囲が引き込み範囲である。
【0025】
分割エリア毎に重み付け係数k(i)が検出されると、数1に従って最適ゲインxsおよびysが算出される。
【0026】
【数1】

Figure 0003992476
重み付け係数k(i)は“0”または“1”しか持たないため、k(i)をIg(i)およびIb(i)に掛けることで、色評価値が引き込み範囲内にある分割エリアだけが有効となる。数1によれば、このような有効分割エリアの積算値Ir(i),積算値Ig(i)および積算値Ib(i)の各々の総和に基づいて、最適ゲインxsおよびysが求められる。求められた最適ゲインxsおよびysは、引き込み範囲に含まれる色評価値の平均がR−Y軸およびB−Y軸の交点に収束するような値をとる。
【0027】
図4に示すように用紙42の上に置かれたスティック44を真上から撮影した場合、LCD30には図5に示す要領で被写体像が表示される。図5に示す複数の縦線および横線は、画面を256個の分割エリアに区分するための線であり、実際には表示されない。用紙42が薄いオレンジ色で、スティック44が濃い黄色である場合、用紙42の色のみを積算した積算値Iry(i)およびIby(i)は引き込み範囲に含まれるが、スティック44の色のみを積算した積算値Iry(i)およびIby(i)は引き込み範囲から外れる。この結果、最適ゲインxsおよびysは、用紙42の色に関する積算値Ir(i),Ig(i)およびIb(i)に基づいて決定される。
【0028】
最適ゲインxsおよびysが算出される前の用紙42の色に関する積算値Iry(i)およびIby(i)が図6に示すエリア1に分布する場合、最適ゲインxsおよびysが算出されかつアンプ221bおよび222bに設定された後の用紙42の色に関する積算値Iry(i)およびIby(i)は、図6に示すエリア2に移動する。つまり、用紙42の色に関する積算値Iry(i)およびIby(i)は、移動量W1だけ移動する。
【0029】
図2に戻って、LCH変換回路22dは、与えられた各画素のR成分、G成分およびB成分をL成分(明度成分),C成分(彩度成分)およびH成分(色相成分)に変換する。LCH変換回路22dからは、各画素がL成分,C成分およびH成分を有するLCHデータが出力される。L成分,C成分およびH成分は、L補正回路22e,C補正回路22fおよびH補正回路22gにそれぞれ与えられる。L補正回路22e,C補正回路22fおよびH補正回路22gはそれぞれ、入力されたL成分,C成分およびH成分に所定の演算を施し、補正L成分,補正C成分および補正H成分を求める。求められた補正H成分,補正C成分および補正L成分はその後、YUV変換回路22hによってY成分,U成分およびV成分に変換される。YUV変換はいわゆる4:2:2変換(または4:1:1変換)であり、YUV変換回路22hから出力されるY成分,U成分およびV成分は4:2:2(または4:1:1)の比率を持つ。
【0030】
LCH変換回路22dから出力されたH成分は、領域判別回路22iにも与えられる。領域判別回路22iは、基準値テーブル22jを参照して、LCH変換回路22dから与えられたH成分の属する領域を判別する。そして、判別結果に対応する基準値を基準値テーブル22jから読み出すとともに、判別結果に対応する目標値を目標値テーブル22kから読み出す。
【0031】
図7を参照して、基準値テーブル22jには、6つの基準H成分値,6つの基準C成分値および6つの基準L成分値が書き込まれている。H,CおよびLはそれぞれ色相,彩度および明度を意味し、いずれも色調補正のためのパラメータである。互いに関連する基準H成分値,基準C成分値および基準L成分値には同じ基準値番号N(1〜6)が割り当てられ、基準値番号が共通する3つの成分値(基準H成分値,基準C成分値,基準L成分値)によって基準値が規定される。この6つの基準値は、6つの代表色(Mg,R,Ye,G,Cy,B)に個別に対応し、図9および図10に示すようにYUV空間に分布する。なお、図10には基準値番号が“5”の基準値のみを示している。
【0032】
一方、目標値テーブル22kは、図8に示すように形成される。図7に示す基準値テーブル22hと同様、色相(H),彩度(C)および明度(L)の各々に関する6つの目標H成分値,6つの目標C成分値および6つの目標L成分値が設定され、同じ目標値番号N(=1〜6)に割り当てられた目標H成分値,目標C成分値および目標L成分値によって目標値が規定される。この6つの目標値もまた、6つの代表色(Mg,R,Ye,G,Cy,B)に個別に対応する。目標H成分値,目標C成分値および目標L成分値が図8に示す数値を示すとき、6つの目標値は図9および図10に示すようにYUV空間に分布する。なお、図10には目標値番号が“5”の目標値のみを示している。
【0033】
目標値テーブル22kが基準値テーブル22jと異なるのは、各々の目標値を変更できる点である。つまり、基準値テーブル22jに設定された基準H成分値,基準C成分値および基準L成分値が、製造段階で予め設定され、オペレータによって自由に変更できないのに対して、目標値テーブル22kに設定される目標H成分値,目標C成分値および目標L成分値は、CPU38によって変更される。
【0034】
領域判別回路22iは、画像データを形成する各画素について領域判別と判別結果に応じた基準値および目標値の選択とを行うべく、図11に示すフロー図を1画素毎に実行する。まずステップS1でカウンタ22nのカウント値Nを“1”に設定し、ステップS3でカウント値Nに対応する基準H成分値を基準値テーブル22hから読み出す。ステップS5では、LCH変換回路22dから入力した現画素のH成分値(現画素H成分値)を基準値テーブル22jから読み出された基準H成分値と比較する。
【0035】
ステップS5で基準H成分値>現画素H成分値と判断されると、ステップS11でカウント値Nを“1”と比較する。N=1であればステップS21〜S27を処理するが、N>1であればステップS13〜S19を処理する。一方、基準H成分値≦現画素H成分値であれば、ステップS7でカウンタ22nをインクリメントし、続くステップS9で更新後のカウント値Nを“6”と比較する。そして、N≦6であればステップS3に戻るが、N>6であればステップS21〜S27を処理する。
【0036】
ステップS13では、現時点のカウント値Nに対応する基準H成分値,基準C成分値および基準L成分値をHr1,Cr1およびLr1として基準値テーブル22jから選択し、ステップS15では、現時点のカウント値Nに対応する目標H成分値,目標C成分値および目標L成分値をHt1,Ct1およびLt1として、目標値テーブル22kから選択する。また、ステップS17では、カウント値N−1に対応する基準H成分値,基準C成分値および基準L成分値をHr2,Cr2およびLr2として基準値テーブル22jから選択し、ステップS19では、カウント値N−1に対応する目標H成分値,目標C成分値および目標L成分値をHt2,Ct2およびLt2として、目標値テーブル22kから選択する。
【0037】
一方、ステップS21では、カウント値N=1に対応する基準H成分値,基準C成分値および基準L成分値をHr1,Cr1およびLr1として基準値テーブル22jから選択し、ステップS23では、カウント値N=1に対応する目標H成分値,目標C成分値および目標L成分値をHt1,Ct1およびLt1として、目標値テーブル22kから選択する。また、ステップS25では、カウント値N=6に対応する基準H成分値,基準C成分値および基準L成分値をHr2,Cr2およびLr2として基準値テーブル22jから選択し、ステップS27では、カウント値N=6に対応する目標H成分値,目標C成分値および目標L成分値をHt2,Ct2およびLt2として、目標値テーブル22kから選択する。
【0038】
このようにして、色相に関して現画素値を挟む2つの基準値と、この2つの基準値に対応する2つの目標値とが検出される。
【0039】
基準H成分値Hr1およびHr2ならびに目標H成分値Ht1およびHt2はH補正回路22gに与えられる。また、基準C成分値Cr1およびCr2ならびに目標C成分値Ct1およびCt2はC補正回路22fに与えられる。さらに、基準L成分値Lr1およびLr2ならびに目標L成分値Lt1およびLt2はL補正回路22eに与えられる。
【0040】
H補正回路22gは、LCH変換回路22dから現画素H成分値Hinを取り込み、数2に従って補正H成分値Houtを算出する。算出された補正H成分値Houtは、図12に破線で示す角度にシフトする。
【0041】
【数2】
Figure 0003992476
H補正回路22gはまた、角度データα(=|Hr2−Hin|)およびβ(=|Hr1−Hin|)をC補正回路22fおよびL補正回路22eに出力するとともに、角度データγ(=|Ht2−Hout|)およびδ=(|Ht1−Hout|)をL補正回路22eに出力する。
【0042】
C補正回路22fは、LCH変換回路22dから取り込んだ現画素C成分値Cinに数3に示す演算を施し、図13に示す補正C成分値Coutを算出する。
【0043】
【数3】
Figure 0003992476
C補正回路22fはまた、数4を演算して、CH系の座標(0,0)および(Cin,Hin)を結ぶ直線と座標(Cr1,Hr1)および(Cr2,Hr2)を結ぶ直線との交点座標におけるC成分値Cr3、ならびにCH系の座標(0,0)および(Cout,Hout)を結ぶ直線と座標(Ct1,Ht1)および(Ct2,Ht2)を結ぶ直線との交点座標におけるC成分値Ct3を算出する。そして、算出したC成分値Cr3およびCt3を上述の現画素C成分値Cinおよび補正C成分値CoutとともにL補正回路22eに出力する。
【0044】
【数4】
Cr3=Cr1+(Cr2−Cr1)・β/(α+β)
Ct3=Ct1+(Ct2−Ct1)・δ/(γ+δ)
L補正回路22eは、LCH変換回路22dから現画素L成分値Linを取り込み、数5に従って図14に示す補正L成分値Loutを求める。図14に示すLmaxおよびLminはそれぞれ、再現できるL(明度)の最大値および最小値である。現画素値(入力画素値)は、LCH系の座標(Lmax,0,0)、(Lmin,0,0)および(Lr3,Cr3,Hin)によって形成される面(YUV空間を色相Hinで切り出した面)上に存在する。一方、補正画素値は、LCH系の座標(Lmax,0,0)、(Lmin,0,0)および(Lt3,Ct3,Hout)によって形成される面(YUV空間を色相Houtで切り出した面)上に存在する。
【0045】
【数5】
Lout=(Lin−La)・(Ld−Lc)/(Lb−La)+Lc
La=Cin/Cr3・(Lr3−Lmin)
Lb=Cin/Cr3・(Lr3−Lmax)+Lmax
Lc=Cout/Ct3・(Lt3−Lmin)
Ld=Cout/Ct3・(Lt3−Lmax)+Lmax
Lr3=Lr1+(Lr2−Lr1)・β/(α+β)
Lt3=Lt1+(Lt2−Lt1)・δ/(γ+δ)
このようにして求められた補正H成分値Hout,補正C成分値Coutおよび補正L成分値Loutによって、補正画素値が規定される。なお、現画素値は、LCH変換回路22dから出力された現画素H成分値Hin,現画素C成分値Cinおよび現画素L成分値Linによって規定される。
【0046】
CPU38は、具体的には、図15および図16に示すフロー図を処理する。まずステップS31で、基準ゲインxrおよびyrをゲインx1およびy1として保持する。アンプ221bおよび222bには、基準ゲインxrおよびyrが設定される。なお、基準ゲインxrおよびyrとは、5100Kの色温度(基準色温度)を持つ被写体を撮影したときに白バランスが適切に調整されるゲインであり、製造段階で決定される。ステップS33ではスルー画像処理を開始すべくTG16,信号処理回路22およびビデオエンコーダ28に処理命令を与え、続くステップS35では色調補正を行う。ステップS37ではシャッタボタン40の操作の有無を判別し、NOであればステップS35に戻る。この結果、色調補正が行われたスルー画像がLCD30に表示される。シャッタボタン40が操作されると、ステップS39に進み、撮影/記録処理を行う。これによって、シャッタボタン40の操作に応答して撮影された被写体像の圧縮画像データが、ファイル形式でメモリカード36に記録される。
【0047】
ステップS35の色調補正処理は、図16に示すサブルーチンに従って実行される。まずステップS41で垂直同期信号の発生の有無を判別し、YESと判断されたときに図2に示す積分回路22cから積算値Ir(i),Ig(i)およびIb(i)を取り込む(i=1〜256)。ステップS45では取り込まれた積算値Ir(i),Ig(i)およびIb(i)に基づいて最適ゲインxsおよびysを算出し、続くステップS47では算出された最適ゲインxsおよびysをゲインx2およびy2として保持する。ステップS49では、数6に従って差分ゲインΔxおよびΔyを求める。
【0048】
【数6】
Δx=x2−x1
Δy=y2−y1
算出された差分ゲインΔxおよびΔyは、被写体像の白バランスの変化量であり、図6または図17に示すエリア1からエリア2までの移動量W1に相当する。ステップS51,S53およびS55では、目標値テーブル22kに設定された目標H成分値,目標C成分値および目標L成分値をこのような差分ゲインΔxおよびΔyに基づいて変更する。変更された目標H成分値,目標C成分値および目標L成分値によって規定される目標値は、図17に□で示す位置に移動する。このときの移動量T1は、白バランス調整による移動量W1を相殺する量である。ステップS55の処理が完了すると、ステップS57でゲインx2およびy2をゲインx1およびy1として保持し、その後上階層のルーチンに復帰する。
【0049】
以上の説明から分かるように、色分離回路22aから出力されたRGBデータの白バランスが白バランス調整回路22bによって調整されると、当該RGBデータがLCH変換回路22dによってLCHデータに変換される。変換されたL成分,C成分およびH成分はそれぞれ、L補正回路22e,C補正回路22fおよびH補正回路22gによる色調補正を施される。このとき、目標値テーブル22kに設定された目標L成分値,目標C成分値および目標H成分値が用いられ、LCH系で表現される各々の画素データの色調が個別に補正される。CPU38は、ゲインx1およびy1が最適ゲインxsおよびysに調整される前後の差分ゲインΔxおよびΔyを白バランスの変化量として算出し、当該差分ゲインΔxおよびΔyに基づいて目標値テーブル22kの目標L成分値,目標C成分値および目標H成分値を変更する。
【0050】
C補正回路22gによる彩度補正は、上述の数3に従って行われる。数3によれば、現画素C成分値Cinに目標C成分値Ct1およびCt2が掛け算される。ただし、現画素C成分値Cinが白バランス調整によって無彩色に調整された画素のC成分値であれば、Cin=0であり、これに目標C成分値Ct1およびCt2を掛け算しても掛け算結果は0のままである。換言すれば、目標C成分値Ct1およびCt2を現画素C成分値Cinに掛け算することで、有彩色の画素データの彩度のみが補正される。このような目標C成分値Ct1およびCt2をΔxおよびΔyに基づいて補正することで、有彩色の色再現性を改善することができる。
【0051】
なお、この実施例では、原色データに基づいて被写体像の白バランスを調整するようにしているが、イメージセンサから補色データが出力される場合、白バランスは補色データ(たとえばCyおよびYe)に基づいて調整するようにしてもよい。
【図面の簡単な説明】
【図1】この発明の一実施例を示すブロック図である。
【図2】図1に示す信号処理回路の構成の一例を示すブロック図である。
【図3】(A)は重み付けテーブルに設定された重み付け係数の一例を示す図解図であり、(B)は色の分布状態を示す図解図である。
【図4】被写体の一例を示す図解図である。
【図5】図4に示す被写体を撮影したときの表示画面の一例を示す図解図である。
【図6】白バランス調整時の動作の一部を示す図解図である。
【図7】基準値テーブルの一例を示す図解図である。
【図8】目標値テーブルの一例を示す図解図である。
【図9】基準値および目標値の分布状態の一例を示す図解図である。
【図10】基準値および目標値の分布状態の他の一例を示す図解図である。
【図11】領域判別回路の動作の一部を示すフロー図である。
【図12】色相を調整するときの動作の一例を示す図解図である。
【図13】彩度を調整するときの動作の一例を示す図解図である。
【図14】明度を調整するときの動作の一例を示す図解図である。
【図15】CPUの動作の一部を示すフロー図である。
【図16】CPUの動作の他の一部を示すフロー図である。
【図17】図1実施例の動作の一部を示す図解図である。
【符号の説明】
10…ディジタルカメラ
14…イメージセンサ
22…信号処理回路
26…SDRAM
28…ビデオエンコーダ
32…JPEGコーデック
36…メモリカード
38…CPU[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that is applied to, for example, a digital camera and performs color adjustment on an image signal.
[0002]
[Prior art]
In an image processing apparatus such as a digital camera, white balance adjustment is performed on a captured image signal. Specifically, gains x and y are given to the R signal and the B signal so that the levels of the R signal, the G signal, and the B signal forming the image signal have a predetermined relationship. However, the white balance adjustment is not executed for only a part of the image, and the gains x and y are given over one frame period.
[0003]
[Problems to be solved by the invention]
For this reason, for example, when a blue main subject placed on light blue paper is photographed, the color of the paper changes to white and the color of the main subject changes to light blue. When a red main subject placed on a pink paper is photographed, the paper color changes from pink to white and the main subject changes to pink. In other words, color reproducibility may be reduced only by white balance adjustment.
[0004]
Therefore, a main object of the present invention is to provide an image processing apparatus capable of improving color reproducibility.
[0005]
[Means for Solving the Problems]
An image processing apparatus according to the present invention refers to an adjustment unit that performs a white balance adjustment process on a scene image output from an imaging unit, and refers to a saturation correction coefficient for a scene image having a white balance adjusted by the adjustment unit. correcting means performs saturation correction processing, and the saturation correction coefficient referred to by the correction means includes a changing means for changing to change the adjustment amount by the adjustment means is canceled, the white balance adjustment process is the default color range This is a process to adjust the color of the object scene image so that the saturation value of the pixel indicating the color belongs to zero, and the saturation correction process corrects the saturation value of each pixel that forms the object scene image. This is a process of multiplying coefficients.
[0006]
[Action]
The object scene image output from the imaging unit is subjected to white balance adjustment processing by the adjustment unit. The correction unit performs a saturation correction process with reference to a saturation correction coefficient on the object scene image having the white balance adjusted by the adjustment unit. Change means changes the adjustment amount by the adjustment means the saturation correction coefficient referred to by the correction means is changed to be canceled. Here, the white balance adjustment process is a process of adjusting the color of the object scene image so that the saturation value of the pixel indicating the color belonging to the predetermined color range is directed to zero. The saturation correction process is a process of multiplying the saturation value of each pixel forming the object scene image by a saturation correction coefficient.
[0007]
Preferably, a plurality of saturation correction coefficients respectively corresponding to a plurality of colors are held by the holding unit. The correcting means includes detecting means for detecting a saturation correction coefficient associated with each pixel forming the scene image from the holding means.
[0008]
Preferably, the adjustment unit performs white balance adjustment processing with reference to a white balance adjustment coefficient. The imaging means repeatedly outputs the object scene image. The update means repeatedly updates the white balance adjustment coefficient referred to by the adjustment means.
[0009]
More preferably, the changing unit performs the changing process while paying attention to a difference value of the white balance adjustment coefficient before and after being updated by the updating unit.
[0012]
【The invention's effect】
According to this invention , color reproducibility can be improved.
[0013]
The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
[0014]
【Example】
Referring to FIG. 1, a digital camera 10 of this embodiment includes a focus lens 12. The optical image of the subject enters the light receiving surface of the image sensor 14 through the focus lens 12. On the light receiving surface, a camera signal (raw image signal) corresponding to the incident optical image is generated by photoelectric conversion. The light receiving surface is covered with a primary color Bayer array color filter (not shown), and each pixel signal forming a camera signal has only one color information component of R, G, and B.
[0015]
When the power is turned on, processing instructions are given from the CPU 38 to the timing generator (TG) 16, the signal processing circuit 22 and the video encoder 28. Thereby, the through image processing is started.
[0016]
The TG 16 repeatedly executes exposure of the image sensor 14 and reading of the camera signal. The camera signal of each frame read from the image sensor 14 is converted into a digital signal by the A / D converter 20 through known noise removal and level adjustment in the CDS / AGC circuit 18.
[0017]
The signal processing circuit 22 performs signal processing such as color separation, color adjustment, and YUV conversion on the camera data of each frame output from the A / D converter 20 to obtain a luminance component (Y data) and a color difference component (U data, V data) is generated. In the color adjustment process, the white balance is first adjusted, and then the lightness, saturation, and hue are corrected. At this time, adjustment coefficients for adjusting white balance (gains x1 and y1 described later) and correction coefficients for correcting lightness, saturation, and hue (target L component value, target C component value, and target H component described later) Value) is determined by the CPU 38. The image data generated by the signal processing circuit 22 is given to the memory control circuit 24 and written into the SDRAM 26 by the memory control circuit 24.
[0018]
The video encoder 28 causes the memory control circuit 24 to read the image data stored in the SDRAM 26. Then, the read image data of each frame is encoded into a composite image signal in NTSC format, and the encoded composite image signal is supplied to the monitor 30. On the monitor 30, a real-time moving image (through image) of the subject is displayed.
[0019]
When the shutter button 40 is fully pressed, shooting / recording processing is executed. First, a compression command is given from the CPU 38 to the JPEG codec 32. The JPEG codec 32 causes the memory control circuit 24 to read the image data for one frame stored in the SDRAM 26, and performs a compression process according to the JPEG format on the read image data. When the compressed image data is obtained, the JPEG codec 32 gives the generated compressed image data to the memory control circuit 24. The compressed image data is stored in the SDRAM 26 by the memory control circuit 24.
[0020]
When the storing process of the compressed image data is completed, the CPU 38 reads the compressed image data from the SDRAM 26 through the memory control circuit 24 and records the read compressed image data in the memory card 36 through the I / F circuit 34. As a result, an image file is created in the memory card 36. Note that the memory card 36 is a detachable nonvolatile recording medium, and can be accessed by the CPU 38 when inserted in a slot (not shown).
[0021]
The signal processing circuit 22 is configured as shown in FIG. The camera data output from the A / D converter 20 is subjected to color separation by the color separation circuit 22a. Since each pixel data constituting the camera data has only one of R component, G component and B component, two color components lacking each pixel are complemented by the color separation circuit 22a. From the color separation circuit 22a, the R component, G component, and B component of each pixel are simultaneously output. That is, RGB data in which each pixel has an R component, a G component, and a B component is output from the color separation circuit 22a. The R component and the B component are given to the integrating circuit 22c and the LCH converting circuit 22d through the amplifiers 221b and 222b forming the white balance adjusting circuit 22b. The amplifier 221b gives a gain x1 to the R component, and the amplifier 222b gives a gain y1 to the B component. On the other hand, the G component is supplied to the integration circuit 22c and the LCH conversion circuit 22d as they are.
[0022]
The screen is divided into 16 in the horizontal direction and the vertical direction, and 256 divided areas are formed on the screen. The integrating circuit 22c integrates the R component, G component, and B component for each divided area and for each same color component. Therefore, 256 integrated values Ir (i), 256 integrated values Ig (i), and 256 integrated values Ib (i) are obtained for each frame period (i = 1 to 256). That is, 256 color evaluation values individually corresponding to 256 divided areas are obtained for each frame period. The CPU 38 calculates optimum gains xs and ys for white balance adjustment based on the color evaluation value thus obtained.
[0023]
Specifically, first, the integrated values Ir (i) and Ib (i) are converted into integrated values Iry (i) and Iby (i). The integrated values Iry (i) and Iby (i) are equal to values obtained by integrating the color difference components RY and BY for each divided area. Such integrated values Iry (i) and Iby (i) are also the color evaluation values of each divided area.
[0024]
Subsequently, based on the weighting table 38a (formed in the CPU 38) having the numerical distribution shown in FIG. 3A and the integrated values Iry (i) and Iby (i) of each divided area, the weighting coefficient of each divided area is obtained. k (i) is detected. The weighting table 38a stores “0” or “1” as the weighting coefficient k (i), and each weighting coefficient k (i) corresponds to the graph shown in FIG. That is, the BY axis and the RY axis are each divided into 17, and each quadrant divided by the BY axis and the RY axis is divided into 64 parts. The weighting coefficient k (i) is assigned to each of the 290 areas thus formed. A range to which the weighting coefficient k (i) = 1 is assigned is a pull-in range.
[0025]
When the weighting coefficient k (i) is detected for each divided area, the optimum gains xs and ys are calculated according to Equation 1.
[0026]
[Expression 1]
Figure 0003992476
Since the weighting coefficient k (i) has only “0” or “1”, by multiplying k (i) by Ig (i) and Ib (i), only the divided area where the color evaluation value is within the pull-in range. Becomes effective. According to Equation 1, the optimum gains xs and ys are obtained based on the total sum of the integrated value Ir (i), integrated value Ig (i), and integrated value Ib (i) of such an effective division area. The obtained optimum gains xs and ys take values such that the average of the color evaluation values included in the pull-in range converges at the intersection of the RY axis and the BY axis.
[0027]
When the stick 44 placed on the paper 42 is photographed from directly above as shown in FIG. 4, the subject image is displayed on the LCD 30 in the manner shown in FIG. A plurality of vertical lines and horizontal lines shown in FIG. 5 are lines for dividing the screen into 256 divided areas, and are not actually displayed. When the paper 42 is light orange and the stick 44 is dark yellow, the integrated values Iry (i) and Iby (i) obtained by integrating only the color of the paper 42 are included in the pull-in range, but only the color of the stick 44 is included. The integrated values Iry (i) and Iby (i) that are integrated are out of the pull-in range. As a result, the optimum gains xs and ys are determined based on the integrated values Ir (i), Ig (i), and Ib (i) relating to the color of the paper 42.
[0028]
When the integrated values Iry (i) and Iby (i) relating to the color of the paper 42 before the optimum gains xs and ys are calculated are distributed in the area 1 shown in FIG. 6, the optimum gains xs and ys are calculated and the amplifier 221b. Then, the integrated values Iry (i) and Iby (i) relating to the color of the sheet 42 after being set to 222b move to the area 2 shown in FIG. That is, the integrated values Iry (i) and Iby (i) relating to the color of the paper 42 move by the movement amount W1.
[0029]
Returning to FIG. 2, the LCH conversion circuit 22d converts the given R, G, and B components of each pixel into an L component (lightness component), a C component (saturation component), and an H component (hue component). To do. From the LCH conversion circuit 22d, LCH data in which each pixel has an L component, a C component, and an H component is output. The L component, the C component, and the H component are applied to the L correction circuit 22e, the C correction circuit 22f, and the H correction circuit 22g, respectively. The L correction circuit 22e, the C correction circuit 22f, and the H correction circuit 22g perform predetermined calculations on the input L component, C component, and H component, respectively, to obtain a correction L component, a correction C component, and a correction H component. The obtained corrected H component, corrected C component, and corrected L component are then converted into a Y component, a U component, and a V component by the YUV conversion circuit 22h. The YUV conversion is so-called 4: 2: 2 conversion (or 4: 1: 1 conversion), and the Y component, U component, and V component output from the YUV conversion circuit 22h are 4: 2: 2 (or 4: 1: It has a ratio of 1).
[0030]
The H component output from the LCH conversion circuit 22d is also provided to the region discrimination circuit 22i. The region discriminating circuit 22i refers to the reference value table 22j and discriminates the region to which the H component given from the LCH conversion circuit 22d belongs. Then, the reference value corresponding to the determination result is read from the reference value table 22j, and the target value corresponding to the determination result is read from the target value table 22k.
[0031]
Referring to FIG. 7, six reference H component values, six reference C component values, and six reference L component values are written in reference value table 22j. H, C, and L mean hue, saturation, and lightness, respectively, and are all parameters for tone correction. The same reference value number N (1 to 6) is assigned to the reference H component value, the reference C component value, and the reference L component value that are related to each other, and three component values having the same reference value number (reference H component value, reference value) The reference value is defined by the C component value and the reference L component value. These six reference values individually correspond to the six representative colors (Mg, R, Ye, G, Cy, B) and are distributed in the YUV space as shown in FIGS. FIG. 10 shows only the reference value whose reference value number is “5”.
[0032]
On the other hand, the target value table 22k is formed as shown in FIG. As with the reference value table 22h shown in FIG. 7, there are six target H component values, six target C component values, and six target L component values for each of hue (H), saturation (C), and lightness (L). The target value is defined by the target H component value, target C component value, and target L component value that are set and assigned to the same target value number N (= 1 to 6). These six target values also individually correspond to the six representative colors (Mg, R, Ye, G, Cy, B). When the target H component value, the target C component value, and the target L component value indicate the numerical values shown in FIG. 8, the six target values are distributed in the YUV space as shown in FIGS. FIG. 10 shows only the target value whose target value number is “5”.
[0033]
The target value table 22k is different from the reference value table 22j in that each target value can be changed. That is, the reference H component value, the reference C component value, and the reference L component value set in the reference value table 22j are set in advance in the manufacturing stage and cannot be freely changed by the operator, but are set in the target value table 22k. The target H component value, the target C component value, and the target L component value are changed by the CPU 38.
[0034]
The area discriminating circuit 22i executes the flowchart shown in FIG. 11 for each pixel in order to perform area discrimination and selection of a reference value and a target value according to the discrimination result for each pixel forming the image data. First, the count value N of the counter 22n is set to “1” in step S1, and the reference H component value corresponding to the count value N is read from the reference value table 22h in step S3. In step S5, the H component value (current pixel H component value) of the current pixel input from the LCH conversion circuit 22d is compared with the reference H component value read from the reference value table 22j.
[0035]
If it is determined in step S5 that the reference H component value> the current pixel H component value, the count value N is compared with “1” in step S11. If N = 1, steps S21 to S27 are processed. If N> 1, steps S13 to S19 are processed. On the other hand, if the reference H component value ≦ the current pixel H component value, the counter 22n is incremented in step S7, and the updated count value N is compared with “6” in subsequent step S9. If N ≦ 6, the process returns to step S3. If N> 6, steps S21 to S27 are processed.
[0036]
In step S13, the reference H component value, the reference C component value, and the reference L component value corresponding to the current count value N are selected from the reference value table 22j as Hr1, Cr1, and Lr1, and in step S15, the current count value N The target H component value, the target C component value, and the target L component value corresponding to are selected from the target value table 22k as Ht1, Ct1, and Lt1. In step S17, the reference H component value, the reference C component value, and the reference L component value corresponding to the count value N-1 are selected from the reference value table 22j as Hr2, Cr2, and Lr2, and in step S19, the count value N The target H component value, the target C component value, and the target L component value corresponding to −1 are selected from the target value table 22k as Ht2, Ct2, and Lt2.
[0037]
On the other hand, in step S21, the reference H component value, the reference C component value, and the reference L component value corresponding to the count value N = 1 are selected from the reference value table 22j as Hr1, Cr1, and Lr1, and in step S23, the count value N The target H component value, target C component value, and target L component value corresponding to = 1 are selected from the target value table 22k as Ht1, Ct1, and Lt1. In step S25, the reference H component value, the reference C component value, and the reference L component value corresponding to the count value N = 6 are selected from the reference value table 22j as Hr2, Cr2, and Lr2, and in step S27, the count value N The target H component value, the target C component value, and the target L component value corresponding to = 6 are selected from the target value table 22k as Ht2, Ct2, and Lt2.
[0038]
In this way, two reference values sandwiching the current pixel value with respect to the hue and two target values corresponding to the two reference values are detected.
[0039]
The reference H component values Hr1 and Hr2 and the target H component values Ht1 and Ht2 are given to the H correction circuit 22g. The reference C component values Cr1 and Cr2 and the target C component values Ct1 and Ct2 are given to the C correction circuit 22f. Further, the reference L component values Lr1 and Lr2 and the target L component values Lt1 and Lt2 are given to the L correction circuit 22e.
[0040]
The H correction circuit 22g takes in the current pixel H component value Hin from the LCH conversion circuit 22d, and calculates a correction H component value Hout according to Equation 2. The calculated corrected H component value Hout is shifted to an angle indicated by a broken line in FIG.
[0041]
[Expression 2]
Figure 0003992476
The H correction circuit 22g also outputs the angle data α (= | Hr2-Hin |) and β (= | Hr1-Hin |) to the C correction circuit 22f and the L correction circuit 22e, and the angle data γ (= | Ht2 -Hout |) and δ = (| Ht1-Hout |) are output to the L correction circuit 22e.
[0042]
The C correction circuit 22f performs the calculation shown in Equation 3 on the current pixel C component value Cin fetched from the LCH conversion circuit 22d to calculate the correction C component value Cout shown in FIG.
[0043]
[Equation 3]
Figure 0003992476
The C correction circuit 22f also calculates Equation 4 to calculate a straight line connecting the CH system coordinates (0, 0) and (Cin, Hin) and a straight line connecting the coordinates (Cr1, Hr1) and (Cr2, Hr2). The C component value Cr3 at the intersection coordinates and the C component at the intersection coordinates of the straight line connecting the coordinates (Ct1, Ht1) and (Ct2, Ht2) and the straight line connecting the coordinates (0, 0) and (Cout, Hout) of the CH system The value Ct3 is calculated. The calculated C component values Cr3 and Ct3 are output to the L correction circuit 22e together with the above-described current pixel C component value Cin and corrected C component value Cout.
[0044]
[Expression 4]
Cr3 = Cr1 + (Cr2-Cr1) · β / (α + β)
Ct3 = Ct1 + (Ct2-Ct1) · δ / (γ + δ)
The L correction circuit 22e takes in the current pixel L component value Lin from the LCH conversion circuit 22d, and obtains a correction L component value Lout shown in FIG. Lmax and Lmin shown in FIG. 14 are a maximum value and a minimum value of L (brightness) that can be reproduced, respectively. The current pixel value (input pixel value) is a surface formed by coordinates (Lmax, 0, 0), (Lmin, 0, 0) and (Lr3, Cr3, Hin) of the LCH system (YUV space cut out by hue Hin) Existing on the surface). On the other hand, the correction pixel value is a surface formed by LCH coordinates (Lmax, 0, 0), (Lmin, 0, 0) and (Lt3, Ct3, Hout) (a surface obtained by cutting out the YUV space with the hue Hout). Exists on.
[0045]
[Equation 5]
Lout = (Lin−La) · (Ld−Lc) / (Lb−La) + Lc
La = Cin / Cr3. (Lr3-Lmin)
Lb = Cin / Cr3 · (Lr3−Lmax) + Lmax
Lc = Cout / Ct3 · (Lt3−Lmin)
Ld = Cout / Ct3 · (Lt3−Lmax) + Lmax
Lr3 = Lr1 + (Lr2-Lr1) · β / (α + β)
Lt3 = Lt1 + (Lt2−Lt1) · δ / (γ + δ)
A corrected pixel value is defined by the corrected H component value Hout, the corrected C component value Cout, and the corrected L component value Lout thus obtained. The current pixel value is defined by the current pixel H component value Hin, the current pixel C component value Cin, and the current pixel L component value Lin output from the LCH conversion circuit 22d.
[0046]
Specifically, the CPU 38 processes the flowcharts shown in FIGS. 15 and 16. First, in step S31, the reference gains xr and yr are held as gains x1 and y1. Reference gains xr and yr are set in the amplifiers 221b and 222b. Note that the reference gains xr and yr are gains with which the white balance is appropriately adjusted when a subject having a color temperature (reference color temperature) of 5100K is photographed, and is determined at the manufacturing stage. In step S33, a processing command is given to the TG 16, the signal processing circuit 22 and the video encoder 28 to start through image processing, and color tone correction is performed in the subsequent step S35. In step S37, it is determined whether or not the shutter button 40 has been operated. If NO, the process returns to step S35. As a result, the through image on which the color tone correction has been performed is displayed on the LCD 30. When the shutter button 40 is operated, the process proceeds to step S39 to perform photographing / recording processing. As a result, the compressed image data of the subject image taken in response to the operation of the shutter button 40 is recorded in the memory card 36 in the file format.
[0047]
The color tone correction process in step S35 is executed according to a subroutine shown in FIG. First, in step S41, it is determined whether or not a vertical synchronizing signal is generated. When YES is determined, integrated values Ir (i), Ig (i), and Ib (i) are fetched from the integrating circuit 22c shown in FIG. = 1 to 256). In step S45, the optimum gains xs and ys are calculated based on the integrated values Ir (i), Ig (i) and Ib (i) taken in, and in the subsequent step S47, the calculated optimum gains xs and ys are calculated as gain x2 and Hold as y2. In step S49, differential gains Δx and Δy are obtained according to Equation 6.
[0048]
[Formula 6]
Δx = x2−x1
Δy = y2−y1
The calculated difference gains Δx and Δy are changes in the white balance of the subject image and correspond to the movement amount W1 from the area 1 to the area 2 shown in FIG. 6 or FIG. In steps S51, S53, and S55, the target H component value, the target C component value, and the target L component value set in the target value table 22k are changed based on such differential gains Δx and Δy. The target value defined by the changed target H component value, target C component value, and target L component value moves to the position indicated by □ in FIG. The movement amount T1 at this time is an amount that cancels out the movement amount W1 by the white balance adjustment. When the process of step S55 is completed, the gains x2 and y2 are held as the gains x1 and y1 in step S57, and then the process returns to the upper hierarchy routine.
[0049]
As can be seen from the above description, when the white balance of the RGB data output from the color separation circuit 22a is adjusted by the white balance adjustment circuit 22b, the RGB data is converted into LCH data by the LCH conversion circuit 22d. The converted L component, C component, and H component are subjected to color tone correction by the L correction circuit 22e, C correction circuit 22f, and H correction circuit 22g, respectively. At this time, the target L component value, the target C component value, and the target H component value set in the target value table 22k are used, and the color tone of each pixel data expressed in the LCH system is individually corrected. The CPU 38 calculates the difference gains Δx and Δy before and after the gains x1 and y1 are adjusted to the optimum gains xs and ys as the amount of change in white balance, and based on the difference gains Δx and Δy, the target L in the target value table 22k. The component value, the target C component value, and the target H component value are changed.
[0050]
The saturation correction by the C correction circuit 22g is performed according to the above-described equation 3. According to Equation 3, the current pixel C component value Cin is multiplied by the target C component values Ct1 and Ct2. However, if the current pixel C component value Cin is a C component value of a pixel that has been adjusted to an achromatic color by white balance adjustment, Cin = 0, and even if this is multiplied by the target C component values Ct1 and Ct2, the multiplication result Remains 0. In other words, by multiplying the target C component values Ct1 and Ct2 by the current pixel C component value Cin, only the saturation of the chromatic color pixel data is corrected. By correcting the target C component values Ct1 and Ct2 based on Δx and Δy, color reproducibility of chromatic colors can be improved.
[0051]
In this embodiment, the white balance of the subject image is adjusted based on the primary color data. However, when complementary color data is output from the image sensor, the white balance is based on complementary color data (for example, Cy and Ye). May be adjusted.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an embodiment of the present invention.
2 is a block diagram illustrating an example of a configuration of a signal processing circuit illustrated in FIG. 1. FIG.
3A is an illustrative view showing one example of weighting coefficients set in a weighting table, and FIG. 3B is an illustrative view showing a color distribution state;
FIG. 4 is an illustrative view showing one example of a subject.
FIG. 5 is an illustrative view showing one example of a display screen when the subject shown in FIG. 4 is photographed;
FIG. 6 is an illustrative view showing a part of an operation during white balance adjustment;
FIG. 7 is an illustrative view showing one example of a reference value table.
FIG. 8 is an illustrative view showing one example of a target value table;
FIG. 9 is an illustrative view showing one example of a distribution state of a reference value and a target value.
FIG. 10 is an illustrative view showing another example of a distribution state of reference values and target values.
FIG. 11 is a flowchart showing a part of the operation of the region discriminating circuit.
FIG. 12 is an illustrative view showing one example of an operation when adjusting a hue;
FIG. 13 is an illustrative view showing one example of an operation when adjusting saturation.
FIG. 14 is an illustrative view showing one example of an operation when adjusting the brightness.
FIG. 15 is a flowchart showing a part of the operation of the CPU.
FIG. 16 is a flowchart showing another portion of behavior of the CPU.
FIG. 17 is an illustrative view showing one portion of operation of the embodiment in FIG. 1;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 ... Digital camera 14 ... Image sensor 22 ... Signal processing circuit 26 ... SDRAM
28 ... Video encoder 32 ... JPEG codec 36 ... Memory card 38 ... CPU

Claims (4)

撮像手段から出力された被写界像に白バランス調整を施す調整手段、
前記調整手段によって調整された白バランスを有する被写界像に彩度補正係数を参照した彩度補正処理を施す補正手段、および
前記補正手段によって参照される彩度補正係数を前記調整手段による調整量の変化が相殺されるように変更する変更手段を備え、
前記白バランス調整処理は既定色範囲に属する色を示す画素の彩度値がゼロに向かうように前記被写界像の色を調整する処理であり、
前記彩度補正処理は前記被写界像を形成する各画素の彩度値に前記彩度補正係数を掛け算する処理である、画像処理装置。
Adjusting means for performing white balance adjustment on the object scene image output from the imaging means;
Correction means for performing saturation correction processing with reference to a saturation correction coefficient on the object scene image having white balance adjusted by the adjustment means, and adjustment of the saturation correction coefficient referred to by the correction means by the adjustment means comprising a changing means for changing as change in the amount is canceled out,
The white balance adjustment process is a process of adjusting the color of the object scene image so that the saturation value of a pixel indicating a color belonging to a predetermined color range is directed to zero.
The image processing apparatus, wherein the saturation correction process is a process of multiplying a saturation value of each pixel forming the object scene image by the saturation correction coefficient.
複数の色にそれぞれ対応する複数の彩度補正係数を保持する保持手段をさらに備え、
前記補正手段は前記被写界像を形成する各画素に関連する彩度補正係数を前記保持手段から検出する検出手段を含む、請求項1記載の画像処理装置。
A holding means for holding a plurality of saturation correction coefficients respectively corresponding to the plurality of colors;
The image processing apparatus according to claim 1, wherein the correction unit includes a detection unit that detects a saturation correction coefficient associated with each pixel forming the scene image from the holding unit.
前記調整手段は白バランス調整係数を参照して前記白バランス調整処理を実行し、
前記撮像手段は前記被写界像を繰り返し出力し、
前記調整手段によって参照される白バランス調整係数を繰り返し更新する更新手段をさらに備える、請求項1または2記載の画像処理装置。
The adjusting means performs the white balance adjustment process with reference to a white balance adjustment coefficient,
The imaging means repeatedly outputs the object scene image,
The image processing apparatus according to claim 1, further comprising an update unit that repeatedly updates a white balance adjustment coefficient referred to by the adjustment unit.
前記変更手段は前記更新手段によって更新される前後の前記白バランス調整係数の差分値に注目して変更処理を実行する、請求項3記載の画像処理装置。  The image processing apparatus according to claim 3, wherein the changing unit pays attention to a difference value of the white balance adjustment coefficient before and after being updated by the updating unit.
JP2001342364A 2001-11-07 2001-11-07 Image processing device Expired - Fee Related JP3992476B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001342364A JP3992476B2 (en) 2001-11-07 2001-11-07 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001342364A JP3992476B2 (en) 2001-11-07 2001-11-07 Image processing device

Publications (2)

Publication Number Publication Date
JP2003143622A JP2003143622A (en) 2003-05-16
JP3992476B2 true JP3992476B2 (en) 2007-10-17

Family

ID=19156238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001342364A Expired - Fee Related JP3992476B2 (en) 2001-11-07 2001-11-07 Image processing device

Country Status (1)

Country Link
JP (1) JP3992476B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4002863B2 (en) * 2003-06-24 2007-11-07 オリンパス株式会社 Image processing system and image processing method
JP4916093B2 (en) * 2004-03-29 2012-04-11 三洋電機株式会社 Image processing device
KR20070091853A (en) 2006-03-07 2007-09-12 삼성전자주식회사 Apparatus and method for reproducting color image-adaptively
US7889245B2 (en) 2007-01-12 2011-02-15 Seiko Epson Corporation Automatic white balancing of a digital image
JP5885023B2 (en) * 2012-01-24 2016-03-15 カシオ計算機株式会社 Imaging apparatus, white balance control method, and white balance control program

Also Published As

Publication number Publication date
JP2003143622A (en) 2003-05-16

Similar Documents

Publication Publication Date Title
CN1992820B (en) Digital camera with face detection function for facilitating exposure compensation
US6947080B2 (en) Device for image processing, method of adjusting white-balance, and computer products
JP4628937B2 (en) Camera system
US7030911B1 (en) Digital camera and exposure control method of digital camera
JP5663564B2 (en) Imaging apparatus, captured image processing method, and captured image processing program
JP4894907B2 (en) Imaging apparatus, imaging processing method, and program
JP3877544B2 (en) Digital camera
JP2008167361A (en) Camera module, electronic device with the same, method of manufacturing camera module, and method of manufacturing electronic device using the same
JP6083974B2 (en) Image processing apparatus, image processing method, and program
WO2007043325A1 (en) Image processing system and image processing program
JP2009044367A (en) Imaging method and imaging apparatus
JP3631169B2 (en) Digital camera
WO2005099356A2 (en) Imaging device
US7173654B2 (en) Digital camera having color adjustment capability
JP2010041611A (en) Digital camera and image processor, as well as image processing program
JP3992476B2 (en) Image processing device
JP3754364B2 (en) Digital camera
JP4581633B2 (en) Color signal correction method, apparatus and program
JP5675391B2 (en) Image processing device
JP2004088408A (en) Digital camera
JP2532962B2 (en) Color video camera
JP4804327B2 (en) Electronic camera
JP5263764B2 (en) Electronic camera
JP4353813B2 (en) Exposure control device
JP5121898B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070724

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100803

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110803

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120803

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130803

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130803

Year of fee payment: 6

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130803

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees