JP2004096444A - Image processor and method thereof - Google Patents

Image processor and method thereof Download PDF

Info

Publication number
JP2004096444A
JP2004096444A JP2002255109A JP2002255109A JP2004096444A JP 2004096444 A JP2004096444 A JP 2004096444A JP 2002255109 A JP2002255109 A JP 2002255109A JP 2002255109 A JP2002255109 A JP 2002255109A JP 2004096444 A JP2004096444 A JP 2004096444A
Authority
JP
Japan
Prior art keywords
image data
saturation
unit
color
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002255109A
Other languages
Japanese (ja)
Inventor
Kotaro Yano
矢野 光太郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002255109A priority Critical patent/JP2004096444A/en
Publication of JP2004096444A publication Critical patent/JP2004096444A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor and a method thereof that emphasize image data so that saturation will be within a desired color range. <P>SOLUTION: A color range decision part 111 decides whether RGB values of image data outputted from a saturation emphasis part 106 are in a color range based upon color range data in a color range data storage part 12. When all pixels are in the color range, the image data outputted from the saturation emphasis part 106 are outputted as they are to an edge emphasis part 107. When there is a pixel which is not in the color range, a parameter change part 113 is made to obtain a saturation emphasis parameter for weaker saturation emphasis from a saturation emphasis parameter storage part 114 and the obtained saturation emphasis parameter is set to the saturation emphasis part 106. Then the saturation emphasis part 106 is made to perform saturation emphasis processing again. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は画像処理装置およびその方法に関し、例えば、撮像デバイスによって取得された画像を処理する画像処理に関する。
【0002】
【従来の技術】
撮像素子により取得した画像を処理し、画像データを記録媒体に記録する画像処理システムの代表的なものとして、いわゆるディジタルカメラがある。
【0003】
ディジタルカメラは、撮影した画像データに対して所定の画像処理を行うことで、所定の色再現特性をもつ画像を生成する。しかし、ディジタルカメラが扱う画像の特性は、平均的なシーン、被写体に対して満足の行く絵作りを目的とするため、特定の被写体に対しての絵作りとして、必ずしも最適な画像を生成するわけではない。
【0004】
例えば彩度の低い被写体を屋内で撮影した場合、画像全体が彩度の低い色調になる。このような場合に対応して、ディジタルカメラの撮影モードには、平均的なシーンに対して最適な処理を行う通常の撮影モードに加え、彩度を高めに出力する画像処理(彩度強調処理)を行うモード(彩度強調モード)が用意され、ユーザが、これらのモードを選択可能にする工夫がされている。
【0005】
しかし、彩度強調モードによって元々彩度の高いシーンを撮影する場合、画像データに彩度強調処理を行えば、目視可能な表面色の範囲(人間の視覚限界領域)あるいは記録可能な色の範囲を超えてしまい、記録・再生時に所望の色再現が行えない問題がある。
【0006】
このような色の範囲を超えた画像に対して、記録・再生時に視覚的に良好な補正を行う方法としては、元の画像データの色相を変えないように画像データを補正する方法が特許第2601265号公報に開示されている。しかし、同公報に開示された方法は、画像データを処理した後に色の範囲を超えてしまうことに対する、本質的な解決ではない。そのため、例えば画像の彩度を強調した結果、彩度の高い色の区別がつかなくなってしまう問題がある。
【0007】
【発明が解決しようとする課題】
撮像デバイスにより取得した画像を処理し、画像データを記録媒体に記録するディジタルカメラのような画像処理システムにおいて、処理後の画像データが視覚限界領域や記録可能な色の範囲など所望する色域を超えることがないように、撮影するシーンに応じた最適な彩度強調処理を施すことが望まれる。
【0008】
本発明は、上述の問題を個々にまたはまとめて解決するためのもので、所望する色域に収まるように、画像データを彩度強調することを目的とする。
【0009】
【課題を解決するための手段】
本発明は、前記の目的を達成する一手段として、以下の構成を備える。
【0010】
本発明にかかる画像処理装置は、画像データの彩度を強調する強調手段と、前記強調手段に処理された画像データが、所定の色域に収まるように、前記強調手段の処理パラメータを決定する決定手段とを有することを特徴とする。
【0011】
本発明にかかる画像処理方法は、画像データの彩度を強調し、彩度強調された画像データが、所定の色域に収まるように、前記彩度強調の処理パラメータを決定することを特徴とする。
【0012】
【発明の実施の形態】
以下、本発明にかかる一実施形態の画像処理装置を図面を参照して詳細に説明する。
【0013】
【第1実施形態】
[構成]
図1は実施形態の画像処理装置であるディジタルカメラの構成例を示すブロック図である。
【0014】
撮像部101は、撮像レンズ、CCDやCMOSセンサなどの撮像素子、撮像素子の出力信号のゲインを調整するゲイン調整回路、ゲイン調整後の撮像素子の出力信号をディジタル信号に変換するA/D変換回路、および、出力されたディジタル信号を一時記憶するメモリなどから構成され、撮像レンズを介して入力した光に対応する撮像素子の出力信号をディジタル画像データとして出力する。
【0015】
露出調整部102は、撮像部101から出力される画像データの所定部分の輝度に基づき、適当な明るさの画像データになるように、所定のプログラム線図に従い、シャッタ速度と絞り値を決定し、撮像部101の撮像素子の露光時間および撮影レンズの絞りを制御する。
【0016】
白バランス補正部103は、撮像部101から出力される画像データの白バランスの調整を行う。画素補間部104は、撮像素子の各画素に対応して、撮像素子の色フィルタ配列に応じてRGB三つのチャネルの画素値を補間した画像データを出力する。色補正部105は、画素補間部104から出力される画像データの色再現特性を所望する特性に色補正する。
【0017】
彩度強調部106は、不図示のスイッチによって撮影モードとして彩度強調モードが指定された場合、色補正部105によって補正された画像データに対して彩度強調処理を行う。エッジ強調部107は、被写体の輪郭部分を強調する処理を画像データに施す。ガンマ変換部108は、画像データのRGBチャネルごとに、テーブル参照によるガンマ補正を施す。
【0018】
画像圧縮部109は、JPEGなどの所定の方式により画像データを圧縮する。記録再生部110は、圧縮された画像データに所定の付帯情報を追加し、所定の形式に従った画像データとして記録媒体200に記録したり、記録媒体200に記録された画像データを不図示の液晶モニタなどへ表示するための画像の再生などを行う。
【0019】
色域判定部111は、彩度強調部106で彩度強調処理された画像データが所定の色域を超えるか否かを判定する。色域データ記憶部112は、色域判定部111で判定を行うための色域のデータを予め記憶する、ROMなどのメモリである。パラメータ変更部113は、色域判定部111により、画像データのの色域が所定の色域を超えたと判定された場合に彩度強調部106の彩度強調パラメータを変更する。彩度強調パラメータ記憶部114は、彩度強調部106が処理する複数の彩度強調パラメータを予め記憶する、ROMなどのメモリである。
【0020】
なお、図1において、撮像部101から彩度強調パラメータ記憶部114はディジタルカメラの構成要素であり、記憶媒体200はディジタルカメラに装着、脱着可能なメモリカード、光ディスクやハードディスクなどのメモリである。
【0021】
[画像記録動作]
以下では、実施形態の撮像時の画像記録動作を説明する。
【0022】
本実施形態は、視覚限界領域より広い色空間(例えばIEC 61966−2−2に記載されているscRGB色空間)における画像データの記録(ただし、12ビットノンリニアのエンコード)を想定し、色域判定部111において視覚限界領域の内外判定を行う例を説明する。
【0023】
●通常の撮影モード
まず、通常の撮影モードによる撮影を説明する。
【0024】
ユーザが被写体を撮影するために、不図示のシャッタボタンを押すと、露出調整部102は、撮像部101の出力に基づき、撮像部101の撮像素子の露光時間および撮影レンズの絞りを制御し、撮像部101からディジタル画像データが出力される。
【0025】
白バランス補正部103は、撮像部101から出力される画像データに対して平均値の計算などの統計的な解析を行い、画像データの統計量が目標値になるように白バランスを調整するための係数を求める。このとき、複数の光源に対応するために、ディジタルカメラの白バランスのモードが複数設定可能な場合、各モードに応じて統計量の目標値があり、各モードに最適な係数が求まる。なお、これらの係数は、RGB各チャネルに対して求める。
【0026】
画素補間部104は、白バランス補正部103で求まった係数を用いて、撮像部101から出力されるディジタル画像データからRGB3チャネルの画像データを補間する。図2は撮像部101の撮像素子の色フィルタの配列(ベイヤ配列)を示す図である。図2に示すように、撮像素子の各画素は、RGBの内、一つのチャネルの画素値しか出力しない。従って、フィルタの色と異なるチャネルの画素値は、下記の補間により求める必要がある。
【0027】
フィルタ色がGの画素の、Gチャネルの画素値を求める場合は、画素値にGチャネルに対応する係数を積算した値を出力値にする。また、フィルタ色がGの画素の、RまたはBチャネルの画素値を求める場合は、隣接する二つの画素の画素値に各チャネルに対応した係数を積算し、平均した値を出力値にする。
【0028】
また、フィルタ色がRまたはBの画素の、フィルタと同色のチャネルの画素値を求める場合は、画素値に各チャネルに対応する係数を積算した値を出力値にする。また、フィルタ色がRまたはBの画素の、フィルタと異なる色のチャネルの画素値を求める場合は、隣接する四つの画素の画素値に各チャネルに対応する係数を積算し、平均した値を出力値にする。
【0029】
なお、上記の補間方法は一例であって、例えば、フィルタ色がGの画素の、RまたはBチャネルの画素値を求める場合、所定の距離にある、対応するフィルタ色の画素の画素値に各チャネルに対応する係数を積算し、距離に基づく重み付けをした平均値を出力値にしてもよい。なお、画素補間部104の出力である画像データは画素補間部104内の不図示の画像メモリに一旦格納される。
【0030】
色補正部105は、画素補間部104から出力される画像データに、式(1)に示すマトリクス演算によって色補正を施し、主に画像データの色相を補正する。

Figure 2004096444
【0031】
彩度強調部106および色域判定部111は、通常撮影モードでは処理を行わず、色補正部105から出力される画像データをスルーする。
【0032】
エッジ強調部107は、色域判定部111から出力される画像データにフィルタリングを施して、所定方向の輪郭部分をそれぞれ抽出し、抽出した輪郭部分に対して、その方向ごとに最適なエッジ強調フィルタを作用させてエッジ強調を行う。また、輪郭の方向性がなく孤立したノイズ成分に対しては、逆に、ローパス効果のあるフィルタ処理を行う。
【0033】
ガンマ変換部108は、エッジ強調部107から出力される画像データのRGB各チャネルに対して、テーブルを参照して、ディスプレイの電圧−輝度特性(ガンマ特性)に合わせることを主目的とするガンマ変換を施す。
【0034】
ガンマ変換部108から出力される画像データは、画像圧縮部109により、所望の画質または圧縮率に応じて圧縮され、記録再生部110に出力される。記録再生部110は、所定の画像フォーマットに従い、圧縮された画像データおよび撮影時の情報を一つの画像データ(ファイル)として記録媒体200に記録する。
【0035】
●彩度強調モード
次に、彩度強調モードの撮影を説明する。なお、色補正部105までの処理は通常の撮影モードと同じだから、色補正部105の出力以降の動作について説明する。
【0036】
彩度強調部106は、色補正部105から出力される画像データに、式(2)に示すマトリクス演算によって彩度強調処理を施す。
Figure 2004096444
【0037】
色域判定部111は、彩度強調部106から出力される画像データのRGB値に対して、色域データ記憶部112に記憶されている色域データに基づく、色域内外判定を行う。図3は視覚限界領域を説明する色度図で、図中の馬蹄形の実線(スペクトル軌跡)が視覚限界領域の境界を表す。色域判定部111は、入力のRGB値が図3に示す境界に対して内か外かを判定するもので、図4はその判定アルゴリズムを示すフローチャートである。
【0038】
まず、scRGB色空間の入力画像データから、マトリクス演算により、CIE 1931 XYZ系の色座標値(X, Y, Z)を求め、式(3)に従い、色度値x, yを算出する(S101)。
x = X/(X + Y + Z)
y = Y/(X + Y + Z)   …(3)
【0039】
以下、(x, y, Y)で示される色が色域の内か外かを、色域データ記憶部112に記憶された色域データに基づき判定する。なお、色域データ記憶部112には、視覚限界領域のYの取り得る範囲を表すYの最大値および最小値、Yの範囲を複数の領域に分割した各領域ごとのxの取り得る範囲を表すxの最大値および最小値を表す一次元テーブル、(x, Y)の範囲を複数の領域に分割した各領域ごとのyの取り得る範囲を表すy値の最大値および最小値を表す二次元テーブルが記憶されている。
【0040】
そして、算出されたY値が色域の範囲内か否かを判定する(S102)。Y値が範囲内ならば、次にそのY値に対応するx値の範囲を取得して(S103)、算出されたx値が色域範囲内か否かを判定する(S104)。x値が範囲内ならば、次に(x, Y)値に対応するy値の範囲を取得して(S105)、算出されたy値が色域範囲内か否かを判定する(S106)。
【0041】
そして、ステップS102、S104およびS106の判定において、すべて色域範囲内と判定された場合は、画像データが色域範囲内にあることを表すフラグGiに‘1’をセットし(S107)、何れかの判定で色域範囲外と判定された場合はフラグGiに‘0’をセットする(S108)。なお、この判定は、画像データの全画素について繰り返される。
【0042】
色域判定部111は、画像データの全画素が色域範囲内にある場合(つまりフラグGiがすべて‘1’)、彩度強調部106から出力された画像データをそのままエッジ強調部107に出力する。一方、色域範囲外の画素が存在する場合(つまりフラグGiの少なくとも一つが‘0’)、パラメータ変更部113に、彩度強調パラメータ記憶部114からデフォルトの彩度強調パラメータの次に彩度強調の度合いが弱い彩度強調パラメータを取得させ、取得した彩度強調パラメータを彩度強調部106に設定させる。
【0043】
彩度強調パラメータを再設定した場合、画素補間部104の出力画像データの全画素に対して、再度、色補正部105による色補正、彩度強調部106による彩度強調処理、および、色域判定部111による色域内外判定が行われる。彩度強調パラメータ記憶部114には複数の彩度強調パラメータが記憶されていて、パラメータ変更部113は、彩度強調の度合いが強い彩度強調パラメータから弱い彩度強調パラメータに向かって順次選択する。そして、色域判定部111の判定により、全画素が色域範囲内になるまで彩度強調パラメータの選択および設定、並びに、色補正、彩度強調処理および色域内外判定が繰り返される。ただし、パラメータ変更部113により、彩度強調の度合いが最も弱い彩度強調パラメータが彩度強調部116に設定した場合、色域判定部111は、色域判定を行わず、彩度強調部116から出力される画像データをそのままエッジ強調部107に入力する。
【0044】
以降のエッジ強調部107から記録再生部110の処理は、通常の撮影モードと同じだから、その説明を省略する。
【0045】
このように、本実施形態によれば、彩度強調を施した画像データに対して、色域内外判定を行い、画像データのRGB値が色域範囲外にある場合は、彩度強調の度合いがより弱い彩度強調パラメータを再設定して、再び彩度強調を行う。従って、撮影時のシーンの色特性を反映し、彩度の高い画像の取得が予想されるシーンに対しても、視覚限界領域内で、できるだけ彩度が強調された画像データを記録することができる。
【0046】
【第2実施形態】
以下、本発明にかかる第2実施形態の画像処理装置を説明する。なお、第2実施形態において、第1実施形態と略同様の構成については、同一符号を付して、その詳細説明を省略する。
【0047】
第2実施形態は、第1実施形態と同様、視覚限界領域より広い色空間における画像データの記録を想定し、彩度強調モードにおいて、彩度強調部106から出力される画像データが視覚限界領域を逸脱しないように彩度強調処理を行う例を説明する。
【0048】
図5は第2実施形態の画像処理装置であるディジタルカメラの構成例を示すブロック図である。
【0049】
撮像部101から色補正部105までの処理は、第1実施形態と同様であるから、その説明を省略する。
【0050】
画像解析部121は、色補正部105から出力される画像データのRGB値を基に、式(4)を使用して各画素の色差R−Y、B−Yを計算する。そして、画像データ全体における色差R−Y、B−Yの最大値をそれぞれ、画像解析結果としてパラメータ選択部122に出力する。
R − Y = 0.70×R − 0.59×G − 0.11×B
B − Y = −0.30×R − 0.59×G + 0.89×B   …(4)
【0051】
彩度強調パラメータ記憶部114は、第1実施形態と同様に、彩度強調パラメータを予め複数記憶する。パラメータ選択部122は、画像解析部121から出力される色差R−Y、B−Yの最大値と、彩度強調パラメータ記憶部114に記憶された各彩度強調パラメータとの関係を示すテーブルを予め記憶する。このテーブルには、色差R−Yおよび色差B−Yそれぞれの値ごとに、視覚限界領域を超えないように彩度強調処理が可能な彩度強調パラメータのうち、彩度の強調の度合いが最も強い彩度強調パラメータのインデックスが記憶されている。
【0052】
パラメータ選択部122は、上記のテーブルから、色差R−Yの最大値に対応する彩度強調パラメータのインデックス、および、色差B−Yの最大値に対応する彩度強調パラメータのインデックスを抽出し、度合いが弱い方の彩度強調パラメータを選択して、彩度強調部106に設定する。
【0053】
彩度強調部106は、パラメータ選択部122によって設定された彩度強調パラメータを使用して、色補正部105から出力される画像データに彩度強調を施す。
【0054】
以降のエッジ強調部107から記録再生部110の処理は、第1実施形態と同じだから、その詳細説明を省略する。
【0055】
このように、パラメータ選択部122は、色差R−Y、B−Yの最大値に応じた彩度強調パラメータを選択し、度合いが弱い方を彩度強調部106に設定する。
【0056】
つまり、色差の最大値が大きい場合は撮影された被写体シーンの彩度が高いものと判断されるが、色差に応じた彩度強調パラメータを使用することで、視覚限界領域を逸脱しないように彩度強調を抑えることができる。また、色差の最大値が小さい場合は撮影された被写体シーンの彩度が低いものと判断されるが、この場も低い彩度に応じた彩度強調パラメータを使用することで、彩度強調したにもかかわらず色褪せた画像にならないように、彩度強調を行うことができる。このような適応的な彩度強調処理によれば、視覚限界領域内で所望する彩度強調効果を得ることができる。
【0057】
【変形例】
上記では、予め複数記憶した彩度強調パラメータを、画像解析部121の出力に応じて選択する例を説明したが、画像解析部121の出力に応じて最適な彩度強調パラメータを生成して、彩度強調部106に設定するようにしてもよい。例えば、彩度強調パラメータ記憶部114に記憶した標準的な彩度強調マトリクスの彩度ゲインを、画像解析部121から出力される色差R−Y、B−Yの最大値に応じて調整して、彩度強調マトリクスとすればよい。
【0058】
また、上記では、視覚限界範囲より広い色空間における画像データを記録することを想定し、視覚限界範囲に収まるように、彩度強調パラメータを設定し、彩度強調処理を行う例を説明したが、画像データを記録する色空間は、例えばIEC 61966−2−1に記載されているsRGB色空間のような、視覚限界範囲より狭い色空間でもよい。この場合は、画像データを記録する色空間の色域を超えないように、彩度強調パラメータを設定することになる。
【0059】
例えば、第1実施形態において、色域データ記憶部112には、画像データを記録する色空間の色域を記憶させる。また、第2実施形態において、パラメータ選択部122のテーブルには、画像データを記録する色空間の色域を超えないような、色差R−Y、B−Yの最大値と、彩度強調パラメータとの関係を記憶させる。
【0060】
また、彩度強調された画像データはガンマ変換やエッジ強調などの後、所定のビット数に量子化されて圧縮および記録されるが、画像データを記録する色空間の色域を超えると量子化の際に色再現特性が変ってしまう。これに対して、画像データを記録する色空間の色域に収まるように彩度強調処理を行えば、圧および記録の際に色再現特性が変らず、所望する特性の画像データを出力することができる。
【0061】
また、画像データを記録媒体に記録する際、画像データを記録する色空間の情報としてR、GおよびB、並びに、白のディジタルデータと色度座標との対応を付帯情報として記録してもよい。こうすれば、記録した画像データをディスプレイに表示したり、プリンタで印刷する際に、画像データ記録時の所望する色再現特性を反映した表示または印刷が可能になる。
【0062】
また、上記では、彩度強調を行う画像処理装置としてディジタルカメラを取り上げたが、勿論、ディジタルカメラは、画素補間部104から出力される画像データを記録媒体200に記録し、記録媒体200に記録された画像データを汎用のパーソナルコンピュータに読み込み、色補正部105以降の処理をパーソナルコンピュータ上で動作するアプリケーションプログラムで実行する場合にも、上記の彩度強調パラメータの選択・設定、並びに、適応的な彩度強調処理を適応することができる。なお、パーソナルコンピュータ上で、色補正、彩度強調、エッジ強調などの処理を行えば、処理中の画像をディスプレイで確認しながら、処理パラメータの選択や調整が可能になるから、ユーザが所望する画像を容易に得ることができる。また、処理後の画像データの記録や印刷も容易になる。その際、視覚限界領域(または、画像データを記録する色空間の色域)に収まるように彩度強調を行えば、ディスプレイ上における処理中の画像の確認を正確に行うことができる。
【0063】
【他の実施形態】
なお、本発明は、複数の機器(例えばホストコンピュータ、インタフェイス機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用してもよい。
【0064】
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0065】
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0066】
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
【0067】
【発明の効果】
以上説明したように、本発明によれば、所望する色域に収まるように、画像データを彩度強調することができる。
【図面の簡単な説明】
【図1】実施形態の画像処理装置であるディジタルカメラの構成例を示すブロック図、
【図2】撮像素子の色フィルタの配列(ベイヤ配列)を示す図、
【図3】視覚限界領域を説明する色度図、
【図4】色域判定部の判定アルゴリズムを示すフローチャート、
【図5】第2実施形態の画像処理装置であるディジタルカメラの構成例を示すブロック図である。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus and method, and for example, to image processing for processing an image acquired by an imaging device.
[0002]
[Prior art]
A so-called digital camera is a typical image processing system that processes an image acquired by an image sensor and records image data on a recording medium.
[0003]
A digital camera generates an image having a predetermined color reproduction characteristic by performing predetermined image processing on captured image data. However, since the characteristics of images handled by digital cameras are aimed at creating satisfactory pictures for average scenes and subjects, it is not always necessary to generate an optimal image for creating pictures for a specific subject. is not.
[0004]
For example, when a low-saturation subject is photographed indoors, the entire image has a low-saturation color tone. In order to cope with such a case, the photographing mode of the digital camera includes, in addition to a normal photographing mode for performing an optimal process for an average scene, image processing for increasing the saturation (saturation enhancement processing). ) Is performed (saturation emphasis mode), and a scheme is devised so that the user can select these modes.
[0005]
However, when a scene with high saturation is originally photographed in the saturation enhancement mode, if the saturation enhancement processing is performed on the image data, the range of the surface color that can be viewed (the human visual limit area) or the range of the recordable color can be obtained. And there is a problem that desired color reproduction cannot be performed during recording / reproduction.
[0006]
As a method for visually improving the image beyond the color range at the time of recording and reproduction, a method of correcting the image data so as not to change the hue of the original image data is disclosed in Japanese Patent No. No. 2,601,265. However, the method disclosed in the publication is not an essential solution to the case where the image data is processed and the color range is exceeded. Therefore, for example, as a result of emphasizing the saturation of an image, there is a problem that a color having a high saturation cannot be distinguished.
[0007]
[Problems to be solved by the invention]
In an image processing system such as a digital camera that processes an image acquired by an imaging device and records the image data on a recording medium, the processed image data may have a desired color gamut such as a visual limit area or a recordable color range. It is desirable to perform an optimal saturation emphasis process according to the scene to be photographed so as not to exceed.
[0008]
The present invention is to solve the above-mentioned problems individually or collectively, and has an object to enhance the saturation of image data so as to fall within a desired color gamut.
[0009]
[Means for Solving the Problems]
The present invention has the following configuration as one means for achieving the above object.
[0010]
An image processing apparatus according to the present invention determines an emphasis unit for emphasizing the saturation of image data, and a processing parameter of the emphasis unit such that the image data processed by the emphasis unit falls within a predetermined color gamut. Determining means.
[0011]
An image processing method according to the present invention is characterized in that the saturation of image data is enhanced, and the saturation enhancement processing parameter is determined so that the saturation-enhanced image data falls within a predetermined color gamut. I do.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings.
[0013]
[First Embodiment]
[Constitution]
FIG. 1 is a block diagram illustrating a configuration example of a digital camera which is an image processing apparatus according to an embodiment.
[0014]
The imaging unit 101 includes an imaging lens, an imaging device such as a CCD or a CMOS sensor, a gain adjustment circuit that adjusts a gain of an output signal of the imaging device, and an A / D converter that converts an output signal of the imaging device after the gain adjustment into a digital signal. The circuit includes a circuit, a memory for temporarily storing the output digital signal, and the like, and outputs an output signal of the image sensor corresponding to the light input through the imaging lens as digital image data.
[0015]
The exposure adjustment unit 102 determines a shutter speed and an aperture value in accordance with a predetermined program diagram so that image data of appropriate brightness is obtained based on the luminance of a predetermined portion of the image data output from the imaging unit 101. The exposure time of the image sensor of the image pickup unit 101 and the aperture of the photographing lens are controlled.
[0016]
The white balance correction unit 103 adjusts the white balance of the image data output from the imaging unit 101. The pixel interpolation unit 104 outputs image data obtained by interpolating pixel values of three channels of RGB in accordance with the color filter arrangement of the image sensor corresponding to each pixel of the image sensor. The color correction unit 105 corrects the color reproduction characteristics of the image data output from the pixel interpolation unit 104 to desired characteristics.
[0017]
When the saturation enhancement mode is designated as a shooting mode by a switch (not shown), the saturation enhancement unit 106 performs saturation enhancement processing on the image data corrected by the color correction unit 105. The edge emphasizing unit 107 performs a process for emphasizing the outline of the subject on the image data. The gamma conversion unit 108 performs gamma correction with reference to a table for each of the RGB channels of the image data.
[0018]
The image compression unit 109 compresses image data by a predetermined method such as JPEG. The recording / reproducing unit 110 adds predetermined additional information to the compressed image data and records the image data on the recording medium 200 as image data in a predetermined format, or converts the image data recorded on the recording medium 200 into an unillustrated image data. Reproduction of an image to be displayed on a liquid crystal monitor or the like is performed.
[0019]
The color gamut determination unit 111 determines whether or not the image data subjected to the saturation enhancement processing by the saturation enhancement unit 106 exceeds a predetermined color gamut. The color gamut data storage unit 112 is a memory such as a ROM that previously stores color gamut data to be determined by the color gamut determination unit 111. The parameter change unit 113 changes the saturation enhancement parameter of the saturation enhancement unit 106 when the color gamut determination unit 111 determines that the color gamut of the image data exceeds the predetermined color gamut. The saturation enhancement parameter storage unit 114 is a memory such as a ROM that stores a plurality of saturation enhancement parameters processed by the saturation enhancement unit 106 in advance.
[0020]
In FIG. 1, the imaging unit 101 to the saturation enhancement parameter storage unit 114 are components of a digital camera, and the storage medium 200 is a memory such as a memory card that can be attached to and detached from the digital camera, and an optical disk and a hard disk.
[0021]
[Image recording operation]
Hereinafter, an image recording operation at the time of imaging according to the embodiment will be described.
[0022]
This embodiment assumes recording of image data in a color space wider than the visual limit region (for example, scRGB color space described in IEC 61966-2-2) (however, 12-bit non-linear encoding) and performs color gamut determination. An example in which the inside / outside determination of the visual limit region is performed by the unit 111 will be described.
[0023]
● Normal shooting mode First, shooting in the normal shooting mode will be described.
[0024]
When the user presses a shutter button (not shown) to photograph a subject, the exposure adjustment unit 102 controls the exposure time of the image sensor of the imaging unit 101 and the aperture of the imaging lens based on the output of the imaging unit 101, Digital image data is output from the imaging unit 101.
[0025]
The white balance correction unit 103 performs statistical analysis such as calculation of an average value on the image data output from the imaging unit 101, and adjusts the white balance so that the statistic of the image data becomes a target value. Find the coefficient of. At this time, if a plurality of white balance modes of the digital camera can be set in order to correspond to a plurality of light sources, there are target values of statistics according to each mode, and an optimal coefficient for each mode is obtained. Note that these coefficients are obtained for each of the RGB channels.
[0026]
The pixel interpolation unit 104 interpolates RGB three-channel image data from the digital image data output from the imaging unit 101 using the coefficients obtained by the white balance correction unit 103. FIG. 2 is a diagram illustrating an arrangement (Bayer arrangement) of the color filters of the imaging device of the imaging unit 101. As shown in FIG. 2, each pixel of the image sensor outputs only one channel pixel value out of RGB. Therefore, the pixel value of the channel different from the color of the filter needs to be obtained by the following interpolation.
[0027]
When determining the G channel pixel value of the pixel having the G filter color, a value obtained by multiplying the pixel value by a coefficient corresponding to the G channel is set as an output value. When obtaining the pixel value of the R or B channel of the pixel having the G filter color, the coefficient corresponding to each channel is added to the pixel values of two adjacent pixels, and the averaged value is used as the output value.
[0028]
When the pixel value of the channel of the same color as the filter of the pixel of the filter color of R or B is obtained, the value obtained by multiplying the pixel value by the coefficient corresponding to each channel is used as the output value. When calculating the pixel value of a channel of a color different from that of the filter of the pixel of the filter color of R or B, the coefficient corresponding to each channel is added to the pixel values of four adjacent pixels, and the averaged value is output. Value.
[0029]
Note that the above interpolation method is an example. For example, when calculating the pixel value of the R or B channel of a pixel whose filter color is G, the pixel value of the corresponding filter color pixel at a predetermined distance The average value obtained by integrating the coefficients corresponding to the channels and weighting based on the distance may be used as the output value. The image data output from the pixel interpolation unit 104 is temporarily stored in an image memory (not shown) in the pixel interpolation unit 104.
[0030]
The color correction unit 105 performs color correction on the image data output from the pixel interpolation unit 104 by a matrix operation shown in Expression (1), and mainly corrects the hue of the image data.
Figure 2004096444
[0031]
The saturation enhancement unit 106 and the color gamut determination unit 111 do not perform processing in the normal shooting mode, and pass through the image data output from the color correction unit 105.
[0032]
The edge enhancement unit 107 performs filtering on the image data output from the color gamut determination unit 111 to extract outline portions in predetermined directions, and applies an edge enhancement filter optimal for each direction to the extracted outline portions. To perform edge enhancement. Conversely, a filtering process having a low-pass effect is performed on an isolated noise component having no contour directionality.
[0033]
The gamma converter 108 refers to a table for each of the R, G, and B channels of the image data output from the edge emphasizing unit 107, and performs gamma conversion whose main purpose is to match the voltage-luminance characteristics (gamma characteristics) of the display. Is applied.
[0034]
The image data output from the gamma conversion unit 108 is compressed by the image compression unit 109 according to a desired image quality or compression ratio, and output to the recording / reproduction unit 110. The recording / reproducing unit 110 records the compressed image data and the information at the time of shooting as one image data (file) on the recording medium 200 according to a predetermined image format.
[0035]
● Saturation emphasis mode Next, shooting in the saturation emphasis mode will be described. Since the processing up to the color correction unit 105 is the same as in the normal shooting mode, the operation after the output of the color correction unit 105 will be described.
[0036]
The saturation emphasizing unit 106 performs a saturation emphasizing process on the image data output from the color correcting unit 105 by a matrix operation shown in Expression (2).
Figure 2004096444
[0037]
The color gamut determination unit 111 performs a color gamut inside / outside determination on the RGB values of the image data output from the saturation enhancement unit 106 based on the color gamut data stored in the color gamut data storage unit 112. FIG. 3 is a chromaticity diagram for explaining the visual limit region, in which a horseshoe-shaped solid line (spectral locus) represents the boundary of the visual limit region. The color gamut determination unit 111 determines whether the input RGB values are inside or outside the boundary shown in FIG. 3, and FIG. 4 is a flowchart showing the determination algorithm.
[0038]
First, CIE 1931 XYZ color coordinate values (X, Y, Z) are obtained from the input image data in the scRGB color space by a matrix operation, and chromaticity values x, y are calculated according to equation (3) (S101). ).
x = X / (X + Y + Z)
y = Y / (X + Y + Z) (3)
[0039]
Hereinafter, whether the color represented by (x, y, Y) is inside or outside the color gamut is determined based on the color gamut data stored in the color gamut data storage unit 112. The color gamut data storage unit 112 stores the maximum and minimum values of Y representing the range of Y in the visual limit region, and the range of x for each region obtained by dividing the range of Y into a plurality of regions. A one-dimensional table representing the maximum value and the minimum value of x, and a maximum value and a minimum value of the y value representing a possible range of y for each region obtained by dividing the range of (x, Y) into a plurality of regions. A dimension table is stored.
[0040]
Then, it is determined whether the calculated Y value is within the color gamut (S102). If the Y value is within the range, a range of the x value corresponding to the Y value is obtained (S103), and it is determined whether or not the calculated x value is within the color gamut (S104). If the x value is within the range, the y value range corresponding to the (x, Y) value is obtained (S105), and it is determined whether or not the calculated y value is within the color gamut range (S106). .
[0041]
If it is determined in steps S102, S104, and S106 that the image data is all within the color gamut, a flag Gi indicating that the image data is within the color gamut is set to "1" (S107). If it is determined that the value is out of the color gamut, the flag Gi is set to '0' (S108). This determination is repeated for all pixels of the image data.
[0042]
When all the pixels of the image data are within the color gamut range (that is, all the flags Gi are “1”), the color gamut determination unit 111 outputs the image data output from the saturation enhancement unit 106 to the edge enhancement unit 107 as it is. I do. On the other hand, when there is a pixel outside the color gamut (that is, at least one of the flags Gi is “0”), the parameter changing unit 113 stores the saturation next to the default saturation enhancement parameter from the saturation enhancement parameter storage unit 114. A saturation enhancement parameter having a weak degree of enhancement is acquired, and the acquired saturation enhancement parameter is set by the saturation enhancement unit 106.
[0043]
When the saturation enhancement parameter is reset, the color correction by the color correction unit 105, the saturation enhancement by the saturation enhancement unit 106, and the color gamut for all the pixels of the output image data of the pixel interpolation unit 104 are performed again. The color gamut inside / outside determination by the determination unit 111 is performed. A plurality of saturation enhancement parameters are stored in the saturation enhancement parameter storage unit 114, and the parameter change unit 113 sequentially selects the saturation enhancement parameter from the strong saturation enhancement parameter to the weak saturation enhancement parameter. . Then, according to the determination by the color gamut determining unit 111, selection and setting of the saturation enhancement parameter, color correction, saturation enhancement processing, and color gamut inside / outside determination are repeated until all the pixels fall within the color gamut range. However, when the parameter changing unit 113 sets the saturation enhancement parameter having the weakest degree of saturation enhancement to the saturation enhancement unit 116, the color gamut determination unit 111 does not perform the color gamut determination and the saturation enhancement unit 116 Is input to the edge enhancement unit 107 as it is.
[0044]
Subsequent processes from the edge enhancement unit 107 to the recording / reproducing unit 110 are the same as those in the normal shooting mode, and a description thereof will be omitted.
[0045]
As described above, according to the present embodiment, the in-color gamut determination is performed on the image data on which the saturation enhancement has been performed, and when the RGB values of the image data are outside the gamut range, the degree of the saturation enhancement is determined. Resets the weaker saturation enhancement parameter and performs saturation enhancement again. Therefore, it is possible to record image data in which the saturation is enhanced as much as possible within the visual limit area even for a scene in which it is expected to obtain a high-saturation image, reflecting the color characteristics of the scene at the time of shooting. it can.
[0046]
[Second embodiment]
Hereinafter, an image processing apparatus according to a second embodiment of the present invention will be described. In the second embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof will be omitted.
[0047]
As in the first embodiment, the second embodiment assumes recording of image data in a color space wider than the visual limit area, and in the saturation enhancement mode, the image data output from the saturation enhancement unit 106 is stored in the visual limit area. An example in which the saturation emphasis processing is performed so as not to deviate from the following will be described.
[0048]
FIG. 5 is a block diagram illustrating a configuration example of a digital camera that is an image processing device according to the second embodiment.
[0049]
The processing from the imaging unit 101 to the color correction unit 105 is the same as in the first embodiment, and a description thereof will be omitted.
[0050]
The image analysis unit 121 calculates the color differences RY and BY of each pixel using Expression (4) based on the RGB values of the image data output from the color correction unit 105. Then, the maximum values of the color differences RY and BY in the entire image data are output to the parameter selection unit 122 as image analysis results.
R−Y = 0.70 × R−0.59 × G−0.11 × B
B−Y = −0.30 × R−0.59 × G + 0.89 × B (4)
[0051]
The saturation enhancement parameter storage unit 114 stores a plurality of saturation enhancement parameters in advance, as in the first embodiment. The parameter selection unit 122 stores a table indicating the relationship between the maximum values of the color differences RY and BY output from the image analysis unit 121 and the saturation enhancement parameters stored in the saturation enhancement parameter storage unit 114. Store in advance. In this table, for each value of the color difference RY and the color difference BY, among the saturation enhancement parameters that can be subjected to the saturation enhancement processing so as not to exceed the visual limit area, the degree of the saturation enhancement is the highest. An index of a strong saturation enhancement parameter is stored.
[0052]
The parameter selection unit 122 extracts, from the table, an index of a saturation enhancement parameter corresponding to the maximum value of the color difference RY and an index of a saturation enhancement parameter corresponding to the maximum value of the color difference BY, The saturation enhancement parameter having the weaker degree is selected and set in the saturation enhancement unit 106.
[0053]
The saturation enhancement unit 106 performs saturation enhancement on the image data output from the color correction unit 105 using the saturation enhancement parameters set by the parameter selection unit 122.
[0054]
Subsequent processes from the edge enhancement unit 107 to the recording / reproducing unit 110 are the same as those in the first embodiment, and a detailed description thereof will be omitted.
[0055]
As described above, the parameter selection unit 122 selects a saturation emphasis parameter corresponding to the maximum value of the color differences RY and BY, and sets the parameter with the weaker degree to the saturation emphasis unit 106.
[0056]
In other words, when the maximum value of the color difference is large, it is determined that the saturation of the photographed subject scene is high. However, by using the saturation enhancement parameter according to the color difference, the saturation of the scene is maintained so as not to deviate from the visual limit region. The degree of emphasis can be suppressed. Also, when the maximum value of the color difference is small, it is determined that the saturation of the captured subject scene is low. In this case, however, the saturation is enhanced by using the saturation enhancement parameter corresponding to the low saturation. Nevertheless, saturation enhancement can be performed so as not to produce a faded image. According to such adaptive saturation enhancement processing, a desired saturation enhancement effect can be obtained within the visual limit region.
[0057]
[Modification]
In the above description, an example is described in which a plurality of saturation enhancement parameters stored in advance are selected in accordance with the output of the image analysis unit 121. However, an optimal saturation enhancement parameter is generated in accordance with the output of the image analysis unit 121, You may make it set to the saturation enhancement part 106. For example, the saturation gain of the standard saturation enhancement matrix stored in the saturation enhancement parameter storage unit 114 is adjusted according to the maximum values of the color differences RY and BY output from the image analysis unit 121. , A saturation emphasis matrix.
[0058]
Further, in the above, an example has been described in which image data in a color space wider than the visual limit range is assumed to be recorded, and a saturation enhancement parameter is set so as to be within the visual limit range, and the saturation enhancement process is performed. The color space for recording image data may be a color space narrower than the visual limit range, such as the sRGB color space described in IEC 61966-2-1. In this case, the saturation enhancement parameter is set so as not to exceed the color gamut of the color space in which the image data is recorded.
[0059]
For example, in the first embodiment, the color gamut data storage unit 112 stores a color gamut of a color space for recording image data. In the second embodiment, the table of the parameter selection unit 122 stores the maximum values of the color differences RY and BY and the saturation enhancement parameter so as not to exceed the color gamut of the color space in which the image data is recorded. Is stored.
[0060]
In addition, after the image data subjected to saturation enhancement is subjected to gamma conversion, edge enhancement, and the like, the data is quantized to a predetermined number of bits and compressed and recorded. In this case, the color reproduction characteristics change. On the other hand, if the saturation enhancement processing is performed so as to be within the color gamut of the color space in which the image data is recorded, the color reproduction characteristics do not change at the time of pressure and recording, and image data having desired characteristics can be output. Can be.
[0061]
When the image data is recorded on the recording medium, R, G, and B as color space information for recording the image data, and correspondence between white digital data and chromaticity coordinates may be recorded as supplementary information. . In this way, when the recorded image data is displayed on a display or printed by a printer, display or printing reflecting desired color reproduction characteristics at the time of recording the image data becomes possible.
[0062]
In the above description, a digital camera has been described as an image processing apparatus that performs saturation enhancement. Of course, the digital camera records image data output from the pixel interpolation unit 104 on the recording medium 200 and records the image data on the recording medium 200. When the image data thus read is read into a general-purpose personal computer, and the processing after the color correction unit 105 is executed by an application program operating on the personal computer, the above-described selection and setting of the saturation emphasis parameter and the adaptive Chroma enhancement processing can be applied. If processing such as color correction, saturation enhancement, and edge enhancement is performed on a personal computer, it is possible to select and adjust processing parameters while checking the image being processed on the display. Images can be easily obtained. Also, recording and printing of the processed image data are facilitated. At this time, if the saturation is enhanced so as to be within the visual limit area (or the color gamut of the color space for recording the image data), the image being processed on the display can be accurately confirmed.
[0063]
[Other embodiments]
The present invention can be applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), but can be applied to a device including one device (for example, a copier, a facsimile machine, etc.). May be applied.
[0064]
Further, an object of the present invention is to supply a storage medium (or a recording medium) in which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or an apparatus, and a computer (or a CPU or a CPU) of the system or the apparatus. Needless to say, the present invention can also be achieved by an MPU) reading and executing a program code stored in a storage medium. In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. When the computer executes the readout program code, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a part or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing.
[0065]
Further, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is executed based on the instruction of the program code. It goes without saying that the CPU included in the expansion card or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.
[0066]
When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the flowcharts described above.
[0067]
【The invention's effect】
As described above, according to the present invention, saturation of image data can be enhanced so as to be within a desired color gamut.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of a digital camera that is an image processing apparatus according to an embodiment;
FIG. 2 is a diagram showing an arrangement (Bayer arrangement) of color filters of an image sensor;
FIG. 3 is a chromaticity diagram illustrating a visual limit region,
FIG. 4 is a flowchart illustrating a determination algorithm of a color gamut determination unit;
FIG. 5 is a block diagram illustrating a configuration example of a digital camera that is an image processing device according to a second embodiment.

Claims (8)

画像データの彩度を強調する強調手段と、
前記強調手段に処理された画像データが、所定の色域に収まるように、前記強調手段の処理パラメータを決定する決定手段とを有することを特徴とする画像処理装置。
Enhancement means for enhancing the saturation of the image data;
An image processing apparatus comprising: a determination unit configured to determine a processing parameter of the enhancement unit such that the image data processed by the enhancement unit falls within a predetermined color gamut.
さらに、前記強調手段に処理された画像データが前記所定の色域に収まるか否かを判定して、前記所定の色空間に収まるまで前記決定手段に処理パラメータの決定を繰り返させることを特徴とする請求項1に記載された画像処理装置。Further, it is characterized in that it is determined whether or not the image data processed by the enhancing means falls within the predetermined color gamut, and the determining means repeats the determination of the processing parameter until the image data falls within the predetermined color space. The image processing device according to claim 1. 前記決定手段は、画像データの彩度分布に応じて前記処理パラメータを決定することを特徴とする請求項1に記載された画像処理装置。The image processing apparatus according to claim 1, wherein the determining unit determines the processing parameter according to a saturation distribution of the image data. 前記所定の色域は視覚限界領域であることを特徴とする請求項1から請求項3の何れかに記載された画像処理装置。The image processing apparatus according to claim 1, wherein the predetermined color gamut is a visual limit area. さらに、前記強調手段に処理された画像データを所定のデータ形式に変換して記録媒体に記録する記録手段を有し、
前記所定の色域は、視覚限界領域より広いまたは狭い色空間であることを特徴とする請求項1から請求項3の何れかに記載された画像処理装置。
Further, recording means for converting the image data processed by the emphasizing means into a predetermined data format and recording it on a recording medium,
4. The image processing apparatus according to claim 1, wherein the predetermined color gamut is a color space wider or narrower than a visual limit region.
画像データの彩度を強調し、
彩度強調された画像データが、所定の色域に収まるように、前記彩度強調の処理パラメータを決定することを特徴とする画像処理方法。
Emphasizes the saturation of image data,
An image processing method comprising: determining a saturation enhancement processing parameter such that saturation-enhanced image data falls within a predetermined color gamut.
画像処理装置を制御して、請求項6に記載された画像処理を実行することを特徴とするプログラム。A program for controlling an image processing apparatus to execute the image processing according to claim 6. 請求項7に記載されたプログラムが記録されたことを特徴とする記録媒体。A recording medium on which the program according to claim 7 is recorded.
JP2002255109A 2002-08-30 2002-08-30 Image processor and method thereof Withdrawn JP2004096444A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002255109A JP2004096444A (en) 2002-08-30 2002-08-30 Image processor and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002255109A JP2004096444A (en) 2002-08-30 2002-08-30 Image processor and method thereof

Publications (1)

Publication Number Publication Date
JP2004096444A true JP2004096444A (en) 2004-03-25

Family

ID=32060710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002255109A Withdrawn JP2004096444A (en) 2002-08-30 2002-08-30 Image processor and method thereof

Country Status (1)

Country Link
JP (1) JP2004096444A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009081617A (en) * 2007-09-26 2009-04-16 Mitsubishi Electric Corp Device and method for processing image data
US7701465B2 (en) 2004-03-31 2010-04-20 Canon Kabushiki Kaisha Color processing apparatus and method
US7983479B2 (en) 2004-03-31 2011-07-19 Canon Kabushiki Kaisha Generating a look-up table for use in color processing
JP2012253780A (en) * 2012-06-28 2012-12-20 Canon Inc Image display system, image reproducing device, and photographic apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7701465B2 (en) 2004-03-31 2010-04-20 Canon Kabushiki Kaisha Color processing apparatus and method
US7983479B2 (en) 2004-03-31 2011-07-19 Canon Kabushiki Kaisha Generating a look-up table for use in color processing
JP2009081617A (en) * 2007-09-26 2009-04-16 Mitsubishi Electric Corp Device and method for processing image data
JP2012253780A (en) * 2012-06-28 2012-12-20 Canon Inc Image display system, image reproducing device, and photographic apparatus

Similar Documents

Publication Publication Date Title
US10412296B2 (en) Camera using preview image to select exposure
US9438875B2 (en) Image processing apparatus, image processing method, and program
US7057653B1 (en) Apparatus capable of image capturing
JP3668014B2 (en) Image processing method and apparatus
US8743233B2 (en) Sensitivity-settable image capture apparatus
US20080013787A1 (en) Imaging apparatus, image processor, image filing method, image processing method and image processing program
US7620259B2 (en) History adding device for generating history-added image file, electronic camera, and image processing program for processing history-added image file
JP2004088149A (en) Imaging system and image processing program
JP2007094742A (en) Image signal processor and image signal processing program
JP2003111005A (en) Image processing method and apparatus, and its program
US20060114527A1 (en) Image pickup apparatus
US7327876B2 (en) Image processing device
JP4544308B2 (en) Image processing apparatus, imaging apparatus, method, and program
JP2004088345A (en) Image forming method, image processor, print preparation device, and storage medium
US11503215B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium that notify a user of a region in which tone characteristics can be restored
JP2004246644A (en) Apparatus, method, and program for image processing
JP2001238129A (en) Image processing apparatus and recording medium
JP2004096444A (en) Image processor and method thereof
JP4240261B2 (en) Image processing apparatus and method, and recording medium
JP4960597B2 (en) White balance correction apparatus and method, and imaging apparatus
JP4047154B2 (en) Image processing apparatus and image processing method
JP2004023347A (en) Apparatus, system and method of image processing, storage medium and program
JP2004178428A (en) Image processing method
JP2003264735A (en) Image processing system, image processing method, computer program and computer readable recording medium
JPH1118104A (en) Electronic still camera

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20051101