JP4333016B2 - Image forming apparatus, image data processing method, and recording medium recording image data processing program - Google Patents

Image forming apparatus, image data processing method, and recording medium recording image data processing program Download PDF

Info

Publication number
JP4333016B2
JP4333016B2 JP2000321379A JP2000321379A JP4333016B2 JP 4333016 B2 JP4333016 B2 JP 4333016B2 JP 2000321379 A JP2000321379 A JP 2000321379A JP 2000321379 A JP2000321379 A JP 2000321379A JP 4333016 B2 JP4333016 B2 JP 4333016B2
Authority
JP
Japan
Prior art keywords
color
image data
luminance
correction amount
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000321379A
Other languages
Japanese (ja)
Other versions
JP2002135559A (en
Inventor
伊公子 吉田
規之 西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritsu Koki Co Ltd
Original Assignee
Noritsu Koki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Noritsu Koki Co Ltd filed Critical Noritsu Koki Co Ltd
Priority to JP2000321379A priority Critical patent/JP4333016B2/en
Publication of JP2002135559A publication Critical patent/JP2002135559A/en
Application granted granted Critical
Publication of JP4333016B2 publication Critical patent/JP4333016B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Color, Gradation (AREA)
  • Projection-Type Copiers In General (AREA)
  • Control Of Exposure In Printing And Copying (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、スキャナやディジタルカメラにより得られたディジタル画像データを、特にその主要被写体が適正な濃度になるように補正する技術に関する。
【0002】
【従来の技術】
カラーディジタル画像データの濃度補正方法として、RGB各色についての全画像データの色(濃度)を平均したときにグレー(灰色)となるように、RGB各色成分のヒストグラムを補正する方法が知られている。この方法は、「一般的な戸外の風景を撮影した場合に、その画像に記録されている色を全て混ぜ合わせると灰色に近くなる」というエバンスの定理に基づいている。
【0003】
【発明が解決しようとする課題】
例えば、明るい背景に対してフラッシュを用いずに人物を撮影した画像や、暗い背景に対してフラッシュを用いて人物を撮影した画像など、画面全体で濃度に偏りがある画像データを上記方法により濃度補正した場合、背景の影響を受けて主要被写体である人物が適正に補正されないと言う問題点を有していた。
【0004】
本発明は、上記従来例の問題点を解決するためになされたものであり、画像中の主要被写体の濃度を適正に補正することが可能な画像形成装置、画像データ処理方法及び画像データ処理プログラムを記録した記録媒体を提供することを目的としている。
【0005】
【課題を解決するための手段】
上記目的を達成するため、本発明の一局面に係る画像形成装置は、複数の画素データで構成された画像データを、その画像データを用いて形成される画像を複数の領域に分割した場合の各領域に対応するように複数のグループに分割する画像データ分割手段と、分割された各領域のうち、あらかじめ選択されている1又は2以上の領域に対応するグループに含まれる各画素データからその画素の色を特定し、そのグループに含まれる画素のうち最も多数の画素が共有する色をそのグループに対応する領域の色として特定する色特定手段と、特定された前記領域の色とあらかじめ設定されている所定の色とを比較する色比較手段と、前記領域の色の中に前記所定の色が含まれている場合に、その領域に含まれる画素データを用いてその領域の輝度の平均値を求める平均輝度演算手段と、求められた輝度の平均値をあらかじめ設定された所定の輝度値に補正するための補正量を演算により求める補正量演算手段と、求められた補正量を用いて全画素データを補正する画像データ補正手段と、補正された画像データを用いて画像を形成する画像形成手段と、を具備することを特徴とする。
【0006】
記構成において、前記補正量は、前記所定の輝度値と前記輝度の平均値との差に所定の係数を掛けた値であることが望ましい。
【0007】
さらに、前記所定の色は人間の皮膚に関する色であることが好ましい。
【0008】
また、本発明の他の局面に係る画像データ処理方法は、複数の画素データで構成された画像データを、その画像データを用いて形成される画像を複数の領域に分割した場合の各領域に対応するように複数のグループに分割する画像データ分割ステップと、分割された各領域のうち、あらかじめ選択されている1又は2以上の領域に対応するグループに含まれる各画素データからその画素の色を特定し、そのグループに含まれる画素のうち最も多数の画素が共有する色をそのグループに対応する領域の色として特定する色特定ステップと、特定された前記領域の色とあらかじめ設定されている所定の色とを比較する色比較ステップと、前記領域の色の中に前記所定の色が含まれている場合に、その領域に含まれる画素データを用いてその領域の輝度の平均値を求める平均輝度演算ステップと、求められた輝度の平均値をあらかじめ設定された所定の輝度値に補正するための補正量を演算により求める補正量演算ステップと、求められた補正量を用いて全画素データを補正する画像データ補正ステップと、補正された画像データを出力する補正画像データ出力ステップと、を具備することを特徴とする。
【0009】
記方法において、前記補正量は、前記所定の輝度値と前記輝度の平均値との差に所定の係数を掛けた値であることが好ましい。
【0010】
さらに、前記所定の色は人間の皮膚に関する色であることが好ましい。
【0011】
さらに、本発明の他の局面に係る画像データ処理プログラムを記録した記録媒体は、複数の画素データで構成された画像データを、その画像データを用いて形成される画像を複数の領域に分割した場合の各領域に対応するように複数のグループに分割する画像データ分割処理と、分割された各領域のうち、あらかじめ選択されている1又は2以上の領域に対応するグループに含まれる各画素データからその画素の色を特定し、そのグループに含まれる画素のうち最も多数の画素が共有する色をそのグループに対応する領域の色として特定する色特定処理と、特定された前記領域の色とあらかじめ設定されている所定の色とを比較する色比較処理と、前記領域の色の中に前記所定の色が含まれている場合に、その領域に含まれる画素データを用いてその領域の輝度の平均値を求める平均輝度演算処理と、求められた輝度の平均値をあらかじめ設定された所定の輝度値に補正するための補正量を演算により求める補正量演算処理と、求められた補正量を用いて全画素データを補正する画像データ補正処理と、補正された画像データを出力する補正画像データ出力処理と、をコンピュータに実行させるように記録されている。
【0012】
【発明の実施の形態】
第1実施形態
本発明の第1実施形態について、ディジタルプリンタを例にして説明する。本実施形態に係るディジタルプリンタ(ディジタル式写真処理装置)の外観構成を図1に示す。なお、後述する第2及び第3実施形態の場合も同様である。
【0013】
ディジタルプリンタとは、ディジタルカメラで撮像した画像を直接印画紙片上にプリントしたり、銀塩フィルム上に形成された画像を一旦スキャナで読み込み、印画紙片上にプリントするためのものである。図1に示すように、ディジタルプリンタは、ディジタルカメラやスキャナの撮像素子の各画素に対応する印画紙上の微小領域をR(赤)、G(緑)及びB(青)又はY(黄)、M(マゼンタ)及びC(シアン)の三原色のいずれかの光で露光し、露光された印画紙を現像処理することによって画像を形成する画像形成部100と、入力されたディジタル画像データに所定の処理を施して画像形成部100に出力する画像データ処理部200で構成されている。
【0014】
画像形成部100は、それぞれ幅の異なる複数種類(例えば2種類)の長尺印画紙を巻回収納したマガジン101,102と、マガジン101又は102から引き出した印画紙を所定サイズに切断し、切断された印画紙片上に画像データ処理部200から送信された画像を露光する露光部103と、露光された印画紙片を現像、漂白、定着及び安定化処理する現像処理部104と、現像された印画紙片を乾燥する乾燥部105と、乾燥された印画紙片を例えばフィルム単位に仕分けるソータ部106等で構成されている。なお、画像形成部100は、従来のアナログ式の写真処理装置におけるフィルム上の画像を印画紙片上に拡大露光するための光源、レンズ及びシャッタ等は具備していない。
【0015】
画像データ処理部200は、メモリカードやCD−R等の記録媒体に記録されている画像データを読み込んだり、あるいは補正後の画像データをこれらの記録媒体に記録するためのデータ記録読み出し装置201と、フィルムや印画紙上に形成された画像を直接読み込むためのスキャナ202と、読み込んだ画像をモニタ表示するためのディスプレイ203と、所定の画像処理やプリント処理の指示を入力するためのキーボード204と、プリントする画像データに所定の処理を施し、露光ユニットを制御するための制御データに変換し、画像形成部100に出力するための制御回路(図示せず)等で構成されている。また、モデムやLANボード及び通信回線などを介して、他の装置との間で直接画像データの送受信が可能なように構成してもよい。
【0016】
次に、第1実施形態のディジタルプリンタの機能を説明するためのブロック構成を図2に示す。
【0017】
画像データ入力部210は、例えば入出力インタフェース、CPU、ROM、RAMなどで構成され、データ記録読み出し装置201やスキャナ202から出力されたディジタル画像データを取り込み、RAMなどに一時的に記憶し、保存する。ここで、ディジタル画像データは、その画像データを撮像したディジタルカメラやスキャナなどの撮像素子の各画素からのR(赤)、G(緑)及びB(青)の各色成分ごとの輝度に関する出力信号(RGBデータ)をシリアルに配列したものであり、インタフェースを介してシリアルに入出力される。
【0018】
画像再生部211は、ディスプレイ203、CPU、ROM、RAMなどで構成され、入力された画像データを用いてディスプレイ203のモニタ画面上にプレスキャン画像を再生する。
【0019】
範囲選択部212は、マウスやキーボード204、CPU、ROM、RAMなどで構成され、ディスプレイ203上に再生されているプレスキャン画像のうち、オペレータやユーザが主要被写体(例えば人物の顔の部分)であると認識する範囲を特定する。
【0020】
平均輝度演算部213は、CPU、ROM、RAMなどで構成され、入力された画像データ、特に範囲選択部212により選択された範囲に含まれる画像データに対して所定の処理を施し、各画素にそれぞれ対応する輝度を演算し、輝度ヒストグラムを作成し、選択された範囲の輝度の平均値を演算する。上記RGBデータは、色と輝度(明るさ)に関する情報であり、RGBデータに対して以下の数1に示す演算処理を行い、輝度情報と色差情報を表すYCCデータ(C2,YY,C1)に変換する。YYは輝度情報を表し、C1及びC2は色差情報を表す。この変換によりRGBデータから輝度に関する情報だけを取り出すことができる。
【0021】
【数1】
【0022】
補正量演算部214は、CPU、ROM、RAMなどで構成され、演算された主要被写体部分の輝度の平均値とあらかじめ設定されている適正輝度に相当する所定の輝度値と比較し、主要被写体の部分を適正輝度(適正濃度)にするために、輝度の平均値を所定の輝度値に一致させるために必要な補正量を演算し、RAMなどに記憶する。
【0023】
画像データ補正部215は、CPU、ROM、RAMなどで構成され、演算された補正量を用いて全ての画素に関する画像データの輝度(RGBデータ)を補正する。
【0024】
補正画像データ出力部216は、画像データ入力部210と同様に入出力インタフェース、CPU、ROM、RAMなどで構成され、画像形成部100に補正された画像データを出力する。
【0025】
画像形成部100は、補正後の画像データを用いて印画紙上に画像を形成する。なお、上記CPU、ROM、RAMはそれぞれ同一のものを兼用しても良いし、各部の構成に応じて適宜別のものを用いても良い。
【0026】
次に、第1実施形態における画像データ処理のフローチャートを図3〜図4に示す。まず、画像データ入力部200により画像データが読み込まれると(ステップS1)、画像再生部211は、画像データ入力部210のRAMから画像データを読み出し、ディスプレイ203上にプレスキャン画像を表示する(ステップS3)。この状態で、ユーザ又はオペレータは、表示されているプレスキャン画像に関して輝度補正が必要か否かを判断し(ステップS5)、輝度補正が必要ない場合は、マウスやキーボードなどを用いてステップS1に戻り、次のプレスキャン画像を表示させる。
【0027】
一方、輝度補正が必要な場合、範囲選択部212のマウスやキーボードなどを用いて、ディスプレイ203上に表示されているプレスキャン画像のうち、ユーザやオペレータが主要被写体と認識する範囲、例えば人物の顔の部分などを主要被写体領域を選択する(ステップS7)。
【0028】
主要被写体領域が選択されると、平均輝度演算部213は、画像データ入力部210のRAMから選択された範囲に含まれる画像データを読み出し(ステップS9)、上記数1に従って、各画素ごとの輝度情報YYを抽出する(ステップS11)。さらに、選択された範囲に含まれる各画素の輝度ヒストグラムを作成し(ステップS13)、選択された範囲の輝度の平均値を演算する(ステップS15)。
【0029】
補正量演算部214は、演算された輝度の平均値とあらかじめ設定されている適正輝度に相当する所定の輝度値を比較し、輝度補正量を演算する(ステップS17)。輝度補正量が演算されると、その画像データを特定するための、例えばフィルムのコマ番号などと共に、輝度補正量を画像データ入力部210のRAMなどに保存する(ステップS19)。
【0030】
輝度補正量を保存すると、画像再生部211は、画像データ入力部210のRAMに記憶されている全ての画像データについて、ディスプレイ203上にプレスキャン画像を表示したか否かを判断し(ステップS21)、プレスキャンが終了していない場合はステップS1からS21までを繰り返す。
【0031】
全ての画像データについてプレスキャンを終了すると(ステップS21でYES)、画像データ補正部215は、各画像データ及びその画像データに関する輝度補正量を順に読み出し(ステップS23)、輝度補正量を用いて各画像データを補正し(ステップS25)、RAMなどに補正した画像データを保存する(ステップS27)。さらに、画像データ補正部215は、輝度補正の対象となっている全ての画像データについて輝度補正を行ったか否かを判断し(ステップS29)、補正が完了していない場合はステップS23からS29を繰り返す。
【0032】
全ての画像データの補正が完了すると、補正画像データ出力部216は、補正した画像データを画像形成部100に出力するか否かを判断する(ステップS31)。すなわち、補正した画像データを用いて画像を形成する場合、補正画像データ出力部216は、補正した画像データを画像形成部100に出力する(ステップS33)。そして、画像形成部100は、画像データ処理部200から出力された補正された画像データを用いて印画紙片上に画像を形成し(ステップS35)、このフローを終了する。
【0033】
次に、第1実施形態による画像データの補正の効果について図5を参照しつつ説明する。ディジタルカメラなどにより撮像された画像が、例えば図5(b)に示すように、背景の輝度が高く(濃度が低く明るく)主要被写体の輝度が低い(濃度が高く暗い)「逆光シーン」であるとする。
【0034】
この画像データを補正せずにそのまま用いて画像を形成すると、図5(b)に示すように逆光シーンの画像が得られる。一方、エバンスの定理に従い、RGB各色についての全画像データの色を平均したときに灰色となるように、RGB各色成分を補正すると、図5(c)に示すように、背景が灰色になるように暗く補正され、元々輝度の低い(濃度が高く暗い)主要被写体である人物はさらに暗く補正され、そのディテールがほぼ完全につぶれてしまう。
【0035】
これに対して、本実施形態のように、主要被写体の部分を抽出し、主要被写体の部分の輝度(濃度)が適正となるように全画像データを補正すると、図5(a)に示すように、元々輝度の高い(濃度が低く明るい)背景はさらに明るく補正されるものの、主要被写体である人物は、そのディテールが明確に判別できるように適正輝度(適正濃度)に補正される。その結果、逆光シーンのように濃度に偏りのある画像であっても、適切な補正を行うことができる。なお、図5に示す例とは逆に、暗い場所でフラッシュ撮影をした場合のように、主要被写体の輝度が高く背景の輝度が低い場合であっても、同様に適正な補正を行うことができる。
【0036】
第2実施形態
次に、本発明の第2実施形態について説明する。上記第1実施形態では、入力された画像データを用いてプレスキャン画像を一旦ディスプレイ203上に表示し、ユーザ又はオペレータが輝度補正の対象となる主要被写体の範囲を特定するように構成したが、第2実施形態では、画像データの色情報を分析して、色情報を用いて主要被写体と思われる部分を自動的に認識する。
【0037】
第2実施形態のディジタルプリンタの機能を説明するためのブロック構成を図6に示す。
【0038】
画像データ入力部220は、第1実施形態の場合と同様に、例えば入出力インタフェース、CPU、ROM、RAMなどで構成され、データ記録読み出し装置201やスキャナ202から出力されたディジタル画像データを取り込み、RAMなどに一時的に記憶し、保存する。
【0039】
色特定部221は、CPU、ROM、RAMなどで構成され、入力された画像データに対して所定の処理を施し、各画素にそれぞれ対応する部分の色(以下、単に「画素の色」とする)を特定する。上記RGBデータは、色と輝度(明るさ)に関する情報であり、RGBデータに対して上記数1に示す演算処理を行い、輝度情報と色差情報を表すYCCデータ(C2,YY,C1)に変換する。この変換によりRGBデータから色に関する情報だけを取り出すことができる。
【0040】
図7は、上記C1を縦軸、C2を横軸として、色情報を2次元的に表したものである。図7中ハッチングで示した領域は、主要被写体として人物を撮影した場合における日本人の平均的な肌の色の範囲を表す。
【0041】
画素データ抽出部222は、CPU、ROM、RAMなどで構成され、色特定部221により特定された各画素の色をあらかじめ設定されている主要被写体を代表する所定の色、例えば人物の肌の色などと比較し、主要被写体に対応し、所定の色又は所定範囲に含まれる色を有する画素に対応する画像データを全て抽出し、RAMなどに記憶する。具体的には、全ての画素について、色特定部221により演算されたC1及びC2の値を、あらかじめROMなどに記憶されているLUT(ルックアップテーブル)の値と比較し、C1及びC2の値が上記所定の値と一致するか否か又は所定の範囲内に含まれるか否かを判断する。これにより、全画素データの中から主要被写体に関する画像データが抽出される。
【0042】
平均輝度演算部223は、CPU、ROM、RAMなどで構成され、抽出された全ての画像データを用いて、主要被写体に対応する部分の輝度の平均値を演算する。本実施形態では、画像中の主要被写体を、背景などのその他の部分の輝度の影響を受けることなく適正な輝度(濃度)に補正することを目的としており、上記各処理を経ることにより、主要被写体の部分のみの輝度情報が得られる。
【0043】
補正量演算部224は、CPU、ROM、RAMなどで構成され、演算された主要被写体部分の輝度の平均値とあらかじめ設定されている適正輝度に相当する所定の輝度値と比較し、主要被写体の部分を適正輝度(適正濃度)にするために、輝度の平均値を所定の輝度値に一致させるために必要な補正量を演算し、RAMなどに記憶する。
【0044】
画像データ補正部225は、CPU、ROM、RAMなどで構成され、演算された補正量を用いて全ての画素に関する画像データの輝度(RGBデータ)を補正する。
【0045】
補正画像データ出力部226は、画像データ入力部220と同様に入出力インタフェース、CPU、ROM、RAMなどで構成され、画像形成部100に補正された画像データを出力する。
【0046】
次に、第2実施形態における画像データ処理のフローチャートを図8〜図9に示す。第2実施形態では、最初に主要被写体領域を特定するための色情報、例えば人物の肌の色などを、マウスやキーボード等を用いてディスプレイ上に一覧表示されているカラーチャートなどから選択し、設定する(ステップS51)。
【0047】
画像データ入力部220により画像データが読み込まれると(ステップS53)、色特定部221は、画像データ入力部210のRAMから画像データを読み出し、上記数1に従って、各画素ごとの色情報C1及びC2を抽出し(ステップS55)、各画素ごとにその画素の色を特定する。そして、画素データ抽出部222は、特定した各画素の色と上記ステップS51で設定した主要被写体の色とを比較し(ステップS57)、主要被写体の色と同じ色を有する画素の画素データ又は輝度情報YYのみを抽出し、RAMなどに記憶する(ステップS59)。さらに、色特定部221又は画素データ抽出部222は、全ての画素について画素の色の特定、比較及び画素データの抽出が完了したか否かを判断し(ステップS61)、全ての画素について完了するまで上記ステップS55からS61を繰り返す。
【0048】
全ての画素について画素の色の特定、比較及び画素データの抽出が完了すると、平均輝度演算部223は、ステップS59で抽出した画素データ又は輝度情報YYを用いて主要被写体の色と同じ色を有する全画素の輝度のヒストグラムを作成し、輝度の平均値を演算する(ステップS63)。
【0049】
補正量演算部224は、演算された輝度の平均値とあらかじめ設定されている適正輝度に相当する所定の輝度値を比較し、輝度補正量を演算する(ステップS65)。輝度補正量が演算されると、その画像データを特定するための、例えばフィルムのコマ番号などと共に、輝度補正量を画像データ入力部210のRAMなどに保存する(ステップS67)。
【0050】
輝度補正量を保存すると、例えば補正量演算部224は、全ての画像データについて輝度補正量を演算したか否かを判断し(ステップS69)、全画像データについて輝度補正量の演算が終了していない場合はステップS53からS69までを繰り返す。
【0051】
全ての画像データについて輝度補正量を演算すると(ステップS69でYES)、画像データ補正部225は、各画像データ及びその画像データに関する輝度補正量を順に読み出し(ステップS71)、輝度補正量を用いて各画像データを補正し(ステップS73)、RAMなどに補正した画像データを保存する(ステップS75)。さらに、画像データ補正部225は、輝度補正の対象となっている全ての画像データについて輝度補正を行ったか否かを判断し(ステップS77)、補正が完了していない場合はステップS71からS77を繰り返す。
【0052】
全ての画像データの補正が完了すると、補正画像データ出力部226は、補正した画像データを画像形成部100に出力するか否かを判断する(ステップS79)。すなわち、補正した画像データを用いて画像を形成する場合、補正画像データ出力部226は、補正した画像データを画像形成部100に出力する(ステップS81)。そして、画像形成部100は、画像データ処理部200から出力された補正された画像データを用いて印画紙片上に画像を形成し(ステップS83)、このフローを終了する。
【0053】
第3実施形態
次に、本発明の第3実施形態について説明する。上記第2実施形態では、画像データ中の全画素データを用いて各画素ごとの色を特定し、あらかじめ設定されている主要被写体の色と同じ色を有する画素の画素データを用いて輝度の平均値を求め、輝度補正量を演算するように構成したが、実施形態では、画像を複数の領域に分割し、あらかじめ選択されている1又は2以上の領域、例えば画面の中央部に位置する一部の領域の画素データを用いて、画像データの色情報の分析、輝度の平均値の演算及び輝度補正量の演算を行う。
【0054】
第3実施形態のディジタルプリンタの機能を説明するためのブロック構成を図10に示す。
【0055】
画像データ入力部230は、第1及び第2実施形態の場合と同様に、例えば入出力インタフェース、CPU、ROM、RAMなどで構成され、データ記録読み出し装置201やスキャナ202から出力されたディジタル画像データを取り込み、RAMなどに一時的に記憶し、保存する。
【0056】
画像データ分割部231は、CPU、ROM、RAMなどで構成され、取り込まれたいずれかの画像データを用いて画像を形成したと仮定した場合に、その画像を複数の領域に分割した各領域に対応するように、画像データを画素の番地などに応じて複数のグループに分割する。
【0057】
色特定部232は、CPU、ROM、RAMなどで構成され、画像データ分割部231により分割された各領域のうち、あらかじめ選択されている1又は2以上の領域、例えば画面中央部近傍の複数の領域などに対応するグループに含まれる各画素データを用いて、RGBデータに対して上記数1に示す演算処理を行い、輝度情報と色差情報を表すYCCデータ(C2,YY,C1)に変換する。この変換によりRGBデータから色に関する情報だけを取り出し、各画素の色を特定する。さらに、そのグループに含まれる画素のうち最も多数の画素が共有する色をそのグループに対応する領域の色として特定する。
【0058】
色比較部233は、CPU、ROM、RAMなどで構成され、色特定部232により特定された領域の色とあらかじめ設定されている所定の色、例えば人物の肌の色などユーザ又はオペレータが任意に設定した主要被写体の色とを比較し、当該領域の色の中に所定の色が含まれている否かを判断する。
【0059】
平均輝度演算部234は、CPU、ROM、RAMなどで構成され、色比較部233により、色特定部232により特定された領域の色の中に所定の色が含まれていると判断された場合に、その領域の画素データを用いてその領域の輝度の平均値を演算する。本実施形態では、主要被写体が存在する可能性が高いと思われる部分の画像データのみを用いて輝度補正処理を行うので、処理すべきデータ数が少なくなり、演算処理に要する時間を短縮することが可能となる。
【0060】
補正量演算部235は、CPU、ROM、RAMなどで構成され、演算された主要被写体部分の輝度の平均値とあらかじめ設定されている適正輝度に相当する所定の輝度値と比較し、主要被写体の部分を適正輝度(適正濃度)にするために、輝度の平均値を所定の輝度値に一致させるために必要な補正量を演算し、RAMなどに記憶する。
【0061】
画像データ補正部236は、CPU、ROM、RAMなどで構成され、演算された補正量を用いて全ての画素に関する画像データの輝度(RGBデータ)を補正する。
【0062】
補正画像データ出力部237は、画像データ入力部220と同様に入出力インタフェース、CPU、ROM、RAMなどで構成され、画像形成部100に補正された画像データを出力する。
【0063】
次に、第3実施形態における画像データ処理のフローチャートを図11〜図12に示す。
【0064】
画像データ入力部230により画像データが読み込まれると(ステップS101)、画像データ分割部231は、図13に示すように、その画像データを用いて形成したと仮定した場合に、その仮想画像を縦方向及び横方向にそれぞれ複数(例えば5×5=25)に分割し(ステップS103)、分割した各領域に対応するように、画像データを画素の番地などに応じて複数のグループに分割する。
【0065】
色特定部232は、画像データ分割部231により分割された各領域のうち、あらかじめ選択されている1又は2以上の領域に対応するグループの画素データを画像データ入力部210のRAMから読み出し(ステップS105)、上記数1に従って各画素ごとの色情報C1及びC2を抽出し(ステップS107)、各画素ごとにその画素の色を特定する。さらに、画素の色ごとのヒストグラムなどを作成し、そのグループに含まれる画素のうち最も多数の画素が共有する色をそのグループに対応する領域の色として特定する(ステップS109)。
【0066】
次に、色比較部233は、特定された領域の色と、あらかじめ設定されている主要被写体の色とを比較し(ステップS111)、当該領域の色の中に主要被写体の色と同じ色が含まれているか否かを判断する(ステップS113)。主要被写体の色と同じ色が含まれている場合、平均輝度演算部234は、その領域の画素データ又は輝度情報YYを用いて、その領域に含まれる全画素の輝度のヒストグラムを作成し、輝度の平均値を演算する(ステップS115)。なお、主要被写体の色と同じ色が含まれていない場合(ステップS113でNO)、ステップS121に進んで次の画像データの輝度補正を行う。
【0067】
補正量演算部235は、演算された輝度の平均値とあらかじめ設定されている適正輝度に相当する所定の輝度値を比較し、輝度補正量を演算する(ステップS117)。輝度補正量が演算されると、その画像データを特定するための、例えばフィルムのコマ番号などと共に、輝度補正量を画像データ入力部230のRAMなどに保存する(ステップS119)。
【0068】
輝度補正量を保存すると、例えば補正量演算部235は、全ての画像データについて輝度補正量を演算したか否かを判断し(ステップS121)、全画像データについて輝度補正量の演算が終了していない場合はステップS101からS121までを繰り返す。
【0069】
全ての画像データについて輝度補正量を演算すると(ステップS121でYES)、画像データ補正部236は、各画像データ及びその画像データに関する輝度補正量を順に読み出し(ステップS123)、輝度補正量を用いて各画像データを補正し(ステップS125)、RAMなどに補正した画像データを保存する(ステップS127)。さらに、画像データ補正部236は、輝度補正の対象となっている全ての画像データについて輝度補正を行ったか否かを判断し(ステップS129)、補正が完了していない場合はステップS123からS129を繰り返す。
【0070】
全ての画像データの補正が完了すると、補正画像データ出力部237は、補正した画像データを画像形成部100に出力するか否かを判断する(ステップS131)。すなわち、補正した画像データを用いて画像を形成する場合、補正画像データ出力部237は、補正した画像データを画像形成部100に出力する(ステップS133)。そして、画像形成部100は、画像データ処理部200から出力された補正された画像データを用いて印画紙片上に画像を形成し(ステップS135)、このフローを終了する。
【0071】
その他の実施形態
上記各実施形態では、主要被写体領域を特定し、主要被写体領域の輝度の平均値が適正輝度に相当する所定の輝度値になるように輝度補正量を決定するように構成したが、これに限定されるものではなく、輝度の平均値と所定の輝度値の差に対して、さらに所定の係数(例えば60〜80%の間の任意の値)を掛けた値を輝度補正量として用いても良い。すなわち、図7に示すように、主要被写体の色として人物の肌の色を例にしても、主要被写体の色は単一ではなく一定の色の範囲を有する場合もあることから、特定の色(例えば人物の肌の色)を有する領域のみを対象にして輝度を補正すると、その色に類似する他の色の領域に対して補正過剰となり、かえって補正後の画質が低下することも考えられる。また、補正前の主要被写体の輝度が適正輝度に対して極端に高い場合や逆に低い場合に、主要被写体領域の輝度を完全に適正輝度にまで補正すると、主要被写体以外の部分の輝度が異常に低くなったり又は高くなるおそれがある。従って、これらの場合には、主要被写体領域の輝度を完全に適正輝度にまで補正するのではなく、適正輝度に近い程度の補正でとどめておく方が好ましい。さらに、上記各実施形態では、主要被写体領域の色を専ら単色として扱ったが、これに限定されるものではなく、所定の範囲に含まれる複数の色としても良い。
【0072】
また、上記第1実施形態では、補正前の画像をプレスキャン画像としてディスプレイ203のモニタ画面上に表示するように構成したが、さらに補正後の画像データを用いてプリント用の画像をディスプレイ203のモニタ画面上に表示しても良い。さらに、ディスプレイ203のモニタ画面上にプレスキャン画像を表示する場合及び主要被写体領域の輝度補正量を演算する場合に、画像データの画素数を間引いて使用しても良い。後者は、第2及び第3実施形態の場合も同様である。
【0073】
さらに、上記各実施形態では、画像形成装置としてディジタルプリンタを例にして説明したが、これに限定されるものではなく、パーソナルコンピュータ及びそれに接続されたカラープリンタ、例えば熱転写式カラープリンタ、インクジェット式カラープリンタ及びレーザ式カラープリンタなどであっても良い。
【0074】
さらに、本発明は画像形成装置に限定されず、パーソナルコンピュータで実行される画像データ補正方法及びその方法を実行するためのプログラムを記録した記録媒体も含む。
【0075】
【発明の効果】
以上説明したように、本発明に係る画像形成装置によれば、複数の画素データで構成された画像データを、その画像データを用いて形成される画像を複数の領域に分割した場合の各領域に対応するように複数のグループに分割する画像データ分割手段と、分割された各領域のうち、あらかじめ選択されている1又は2以上の領域に対応するグループに含まれる各画素データからその画素の色を特定し、そのグループに含まれる画素のうち最も多数の画素が共有する色をそのグループに対応する領域の色として特定する色特定手段と、特定された前記領域の色とあらかじめ設定されている所定の色とを比較する色比較手段と、前記領域の色の中に前記所定の色が含まれている場合に、その領域に含まれる画素データを用いてその領域の輝度の平均値を求める平均輝度演算手段と、求められた輝度の平均値をあらかじめ設定された所定の輝度値に補正するための補正量を演算により求める補正量演算手段と、求められた補正量を用いて全画素データを補正する画像データ補正手段と、補正された画像データを用いて画像を形成する画像形成手段と、を具備する。
【0076】
また、本発明に係る画像データ処理方法によれば、複数の画素データで構成された画像データを、その画像データを用いて形成される画像を複数の領域に分割した場合の各領域に対応するように複数のグループに分割する画像データ分割ステップと、分割された各領域のうち、あらかじめ選択されている1又は2以上の領域に対応するグループに含まれる各画素データからその画素の色を特定し、そのグループに含まれる画素のうち最も多数の画素が共有する色をそのグループに対応する領域の色として特定する色特定ステップと、特定された前記領域の色とあらかじめ設定されている所定の色とを比較する色比較ステップと、前記領域の色の中に前記所定の色が含まれている場合に、その領域に含まれる画素データを用いてその領域の輝度の平均値を求める平均輝度演算ステップと、求められた輝度の平均値をあらかじめ設定された所定の輝度値に補正するための補正量を演算により求める補正量演算ステップと、求められた補正量を用いて全画素データを補正する画像データ補正ステップと、補正された画像データを出力する補正画像データ出力ステップと、を具備する。
【0077】
さらに、本発明に係る画像データ処理プログラムを記録した記録媒体によれば、複数の画素データで構成された画像データを、その画像データを用いて形成される画像を複数の領域に分割した場合の各領域に対応するように複数のグループに分割する画像データ分割処理と、分割された各領域のうち、あらかじめ選択されている1又は2以上の領域に対応するグループに含まれる各画素データからその画素の色を特定し、そのグループに含まれる画素のうち最も多数の画素が共有する色をそのグループに対応する領域の色として特定する色特定処理と、特定された前記領域の色とあらかじめ設定されている所定の色とを比較する色比較処理と、前記領域の色の中に前記所定の色が含まれている場合に、その領域に含まれる画素データを用いてその領域の輝度の平均値を求める平均輝度演算処理と、求められた輝度の平均値をあらかじめ設定された所定の輝度値に補正するための補正量を演算により求める補正量演算処理と、求められた補正量を用いて全画素データを補正する画像データ補正処理と、補正された画像データを出力する補正画像データ出力処理と、をコンピュータに実行させるように記録されている。
【0078】
すなわち、これらの発明によれば、画像を一旦モニタ画面上に表示することなく自動的に画像データの輝度補正を行うので、トータルの処理時間を短くすることが可能である。また、画像データを用いて画像を形成したと仮定した場合に、その画像を複数の領域に分割し、ユーザ又はオペレータが主要被写体が存在する可能性が高いと思う1又は2以上の領域を選択して、選択された領域に含まれる画素データのみを用いて輝度補正を行うので、輝度補正量の演算に用いる画素データ数を非常に少なくすることができ、輝度補正量の演算に要する時間を短くすることが可能である。
【図面の簡単な説明】
【図1】本発明の一実施形態に係るディジタルプリンタの外観構成を示す図である。
【図2】本発明の第1実施形態におけるディジタルプリンタのブロック構成を示す図である。
【図3】第1実施形態における画像データ処理のフローチャートである。
【図4】図3のフローチャートの続きである。
【図5】本発明による画像データの輝度補正の効果を説明するための図である。
【図6】本発明の第2実施形態におけるディジタルプリンタのブロック構成を示す図である。
【図7】色情報を2次元的に表した図である。
【図8】第2実施形態における画像データ処理のフローチャートである。
【図9】図8のフローチャートの続きである。
【図10】本発明の第3実施形態におけるディジタルプリンタのブロック構成を示す図である。
【図11】第3実施形態における画像データ処理のフローチャートである。
【図12】図11のフローチャートの続きである。
【図13】第3実施形態において、仮想画像を複数の領域に分割した状態を示す図である。
【符号の説明】
100:画像形成部
200:画像データ処理部
210:画像データ入力部
211:画像再生部
212:範囲選択部
213:平均輝度演算部
214:補正量演算部
215:画像データ補正部
216:補正画像データ出力部
220:画像データ入力部
221:色特定部
222:画素データ抽出部
223:平均輝度演算部
224:補正量演算部
225:画像データ補正部
226:補正画像データ出力部
230:画像データ入力部
231:画像データ分割部
232:色特定部
233:色比較部
234:平均輝度演算部
235:補正量演算部
236:画像データ補正部
237:補正画像データ出力部
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to a technique for correcting digital image data obtained by a scanner or a digital camera so that its main subject has an appropriate density.
[0002]
[Prior art]
  As a density correction method for color digital image data, there is known a method for correcting a histogram of each RGB color component so that the color (density) of all the image data for each RGB color is gray (gray). . This method is based on Evans' theorem that "when a general outdoor landscape is photographed, all the colors recorded in the image are combined to become gray".
[0003]
[Problems to be solved by the invention]
  For example, image data with a biased density on the entire screen, such as an image of a person photographed without a flash on a bright background or an image of a person photographed with a flash on a dark background, is obtained by the above method. When corrected, there is a problem that the person who is the main subject is not corrected properly due to the influence of the background.
[0004]
  The present invention has been made to solve the above-described problems of the conventional example, and an image forming apparatus, an image data processing method, and an image data processing program capable of appropriately correcting the density of a main subject in an image. An object of the present invention is to provide a recording medium on which is recorded.
[0005]
[Means for Solving the Problems]
  In order to achieve the above object, the present inventionRelated to one aspectThe image forming apparatusImage data dividing means for dividing image data composed of a plurality of pixel data into a plurality of groups so as to correspond to each region when an image formed using the image data is divided into a plurality of regions; Among the divided areas, the color of the pixel is specified from each pixel data included in a group corresponding to one or more previously selected areas, and the largest number of pixels among the pixels included in the group Color specifying means for specifying the color shared by the group as the color of the area corresponding to the group, color comparing means for comparing the color of the specified area with a predetermined color set in advance, and the color of the area When the predetermined color is included in the image, the average luminance calculation means for calculating the average value of the luminance of the region using the pixel data included in the region, and the average value of the calculated luminance Correction amount calculation means for calculating a correction amount for correcting to a predetermined luminance value set in advance, image data correction means for correcting all pixel data using the calculated correction amount, and corrected image data An image forming means for forming an image usingIt is characterized by comprising.
[0006]
  UpStructurePreferably, the correction amount is a value obtained by multiplying a difference between the predetermined luminance value and the average value of the luminance by a predetermined coefficient.
[0007]
  Furthermore, the predetermined color is preferably a color relating to human skin.
[0008]
  Also,Of the present inventionAccording to other aspectsThe image data processing method isAn image data dividing step of dividing image data composed of a plurality of pixel data into a plurality of groups so as to correspond to each region when an image formed using the image data is divided into a plurality of regions; Among the divided areas, the color of the pixel is specified from each pixel data included in a group corresponding to one or more previously selected areas, and the largest number of pixels among the pixels included in the group A color specifying step for specifying a color shared by the group as a color of an area corresponding to the group, a color comparing step for comparing the color of the specified area with a predetermined color set in advance, and a color of the area An average luminance calculation step for obtaining an average value of luminance of the area using pixel data included in the area when the predetermined color is included in A correction amount calculation step for calculating a correction amount for correcting the average value of the obtained luminance to a predetermined luminance value set in advance, and an image data correction step for correcting all pixel data using the determined correction amount; A corrected image data output step for outputting corrected image data;It is characterized by comprising.
[0009]
  UpNotationIn the method, the correction amount is preferably a value obtained by multiplying a difference between the predetermined luminance value and the average value of the luminance by a predetermined coefficient.
[0010]
  Furthermore, the predetermined color is preferably a color relating to human skin.
[0011]
  further,Of the present inventionAccording to other aspectsThe recording medium on which the image data processing program is recorded isImage data division processing for dividing image data composed of a plurality of pixel data into a plurality of groups so as to correspond to each region when an image formed using the image data is divided into a plurality of regions; Among the divided areas, the color of the pixel is specified from each pixel data included in a group corresponding to one or more previously selected areas, and the largest number of pixels among the pixels included in the group A color specifying process for specifying a color shared by the group as a color of the area corresponding to the group, a color comparing process for comparing the color of the specified area with a predetermined color, and a color of the area When the predetermined color is included in the image, the average luminance calculation processing for obtaining the average value of the luminance of the region using the pixel data included in the region, and the average value of the obtained luminance Correction amount calculation processing for calculating a correction amount for correcting to a predetermined luminance value set in advance, image data correction processing for correcting all pixel data using the calculated correction amount, and corrected image data Corrected image data output processing for outputtingIs recorded to make the computer execute.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
  First embodiment
  The first embodiment of the present invention will be described by taking a digital printer as an example. FIG. 1 shows the external configuration of a digital printer (digital photographic processing apparatus) according to this embodiment. The same applies to the second and third embodiments described later.
[0013]
  The digital printer is for directly printing an image captured by a digital camera on a piece of photographic paper, or for reading an image formed on a silver salt film with a scanner and printing it on the piece of photographic paper. As shown in FIG. 1, a digital printer has a small area on a photographic paper corresponding to each pixel of an image sensor of a digital camera or a scanner as R (red), G (green) and B (blue) or Y (yellow), An image forming unit 100 that forms an image by exposing to light of one of the three primary colors of M (magenta) and C (cyan), and developing the exposed photographic paper; The image data processing unit 200 performs processing and outputs it to the image forming unit 100.
[0014]
  The image forming unit 100 cuts magazines 101 and 102 in which a plurality of types (for example, two types) of long photographic paper having different widths are wound and stored, and the photographic paper drawn from the magazine 101 or 102 into a predetermined size, and cuts the paper. An exposure unit 103 that exposes an image transmitted from the image data processing unit 200 on the printed photographic paper piece; a development processing unit 104 that develops, bleaches, fixes, and stabilizes the exposed photographic paper piece; and a developed print A drying unit 105 that dries the paper pieces and a sorter unit 106 that sorts the dried photographic paper pieces into, for example, a film unit. The image forming unit 100 does not include a light source, a lens, a shutter, and the like for enlarging and exposing an image on a film in a conventional analog photographic processing apparatus on a photographic paper piece.
[0015]
  The image data processing unit 200 reads image data recorded on a recording medium such as a memory card or a CD-R, or a data recording / reading device 201 for recording corrected image data on these recording media. A scanner 202 for directly reading an image formed on film or photographic paper, a display 203 for displaying the read image on a monitor, a keyboard 204 for inputting instructions for predetermined image processing and print processing, The image data to be printed is subjected to predetermined processing, converted into control data for controlling the exposure unit, and output to the image forming unit 100. The control circuit (not shown) is configured. Further, the image data may be directly transmitted / received to / from another apparatus via a modem, a LAN board, a communication line, or the like.
[0016]
  Next, FIG. 2 shows a block configuration for explaining the functions of the digital printer of the first embodiment.
[0017]
  The image data input unit 210 includes, for example, an input / output interface, a CPU, a ROM, and a RAM. The image data input unit 210 takes in digital image data output from the data recording / reading apparatus 201 and the scanner 202, temporarily stores the data in a RAM, and saves it. To do. Here, the digital image data is an output signal relating to the luminance of each color component of R (red), G (green), and B (blue) from each pixel of an image sensor such as a digital camera or a scanner that images the image data. (RGB data) are serially arranged and input / output serially via an interface.
[0018]
  The image reproduction unit 211 includes a display 203, a CPU, a ROM, a RAM, and the like, and reproduces a prescan image on the monitor screen of the display 203 using the input image data.
[0019]
  The range selection unit 212 includes a mouse, a keyboard 204, a CPU, a ROM, a RAM, and the like. Among prescan images reproduced on the display 203, an operator or a user is a main subject (for example, a human face). Specify the range to recognize.
[0020]
  The average luminance calculation unit 213 includes a CPU, a ROM, a RAM, and the like. The average luminance calculation unit 213 performs predetermined processing on input image data, particularly image data included in a range selected by the range selection unit 212, and applies each pixel to each pixel. The corresponding luminance is calculated, a luminance histogram is created, and the average value of the luminance in the selected range is calculated. The RGB data is information relating to color and luminance (brightness), and the arithmetic processing shown in the following equation 1 is performed on the RGB data, and YCC data (C2, YY, C1) representing luminance information and color difference information is converted into YCC data. Convert. YY represents luminance information, and C1 and C2 represent color difference information. With this conversion, only information relating to luminance can be extracted from the RGB data.
[0021]
[Expression 1]
[0022]
  The correction amount calculation unit 214 includes a CPU, a ROM, a RAM, and the like, and compares the calculated average luminance of the main subject portion with a predetermined luminance value corresponding to a preset appropriate luminance, In order to make the portion have appropriate luminance (appropriate density), a correction amount necessary to match the average value of luminance with a predetermined luminance value is calculated and stored in a RAM or the like.
[0023]
  The image data correction unit 215 includes a CPU, a ROM, a RAM, and the like, and corrects the luminance (RGB data) of the image data regarding all pixels using the calculated correction amount.
[0024]
  Similar to the image data input unit 210, the corrected image data output unit 216 includes an input / output interface, a CPU, a ROM, a RAM, and the like, and outputs corrected image data to the image forming unit 100.
[0025]
  The image forming unit 100 forms an image on the photographic paper using the corrected image data. The CPU, ROM, and RAM may be the same as each other, or different ones may be used as appropriate according to the configuration of each unit.
[0026]
  Next, flowcharts of image data processing in the first embodiment are shown in FIGS. First, when image data is read by the image data input unit 200 (step S1), the image reproduction unit 211 reads the image data from the RAM of the image data input unit 210 and displays a pre-scan image on the display 203 (step S1). S3). In this state, the user or the operator determines whether or not luminance correction is necessary for the displayed pre-scan image (step S5). If luminance correction is not necessary, the user or operator moves to step S1 using a mouse or a keyboard. Return and display the next pre-scanned image.
[0027]
  On the other hand, when luminance correction is necessary, a range that the user or operator recognizes as a main subject in the pre-scan image displayed on the display 203 using the mouse or keyboard of the range selection unit 212, for example, a person's A main subject region is selected for a face portion or the like (step S7).
[0028]
  When the main subject area is selected, the average luminance calculation unit 213 reads out the image data included in the selected range from the RAM of the image data input unit 210 (step S9), and the luminance for each pixel according to the above equation (1). Information YY is extracted (step S11). Further, a luminance histogram of each pixel included in the selected range is created (step S13), and an average value of the luminance in the selected range is calculated (step S15).
[0029]
  The correction amount calculation unit 214 compares the calculated average value of luminance with a predetermined luminance value corresponding to preset appropriate luminance, and calculates a luminance correction amount (step S17). When the luminance correction amount is calculated, the luminance correction amount is stored in the RAM of the image data input unit 210 together with, for example, a film frame number for specifying the image data (step S19).
[0030]
  When the brightness correction amount is saved, the image reproduction unit 211 determines whether or not a pre-scan image is displayed on the display 203 for all the image data stored in the RAM of the image data input unit 210 (step S21). ) If the pre-scan is not completed, steps S1 to S21 are repeated.
[0031]
  When the pre-scan is completed for all the image data (YES in step S21), the image data correction unit 215 sequentially reads out each image data and the luminance correction amount related to the image data (step S23), and uses the luminance correction amount. The image data is corrected (step S25), and the corrected image data is stored in a RAM or the like (step S27). Further, the image data correction unit 215 determines whether or not the luminance correction has been performed on all the image data targeted for luminance correction (step S29). If the correction has not been completed, steps S23 to S29 are performed. repeat.
[0032]
  When the correction of all the image data is completed, the corrected image data output unit 216 determines whether to output the corrected image data to the image forming unit 100 (step S31). That is, when an image is formed using the corrected image data, the corrected image data output unit 216 outputs the corrected image data to the image forming unit 100 (step S33). Then, the image forming unit 100 forms an image on the photographic paper piece using the corrected image data output from the image data processing unit 200 (step S35), and ends this flow.
[0033]
  Next, the effect of correcting image data according to the first embodiment will be described with reference to FIG. For example, as shown in FIG. 5B, an image captured by a digital camera or the like is a “backlight scene” in which the luminance of the background is high (the density is low and bright) and the luminance of the main subject is low (the density is high and dark). And
[0034]
  When this image data is used as it is without correction, an image of a backlight scene is obtained as shown in FIG. 5B. On the other hand, according to Evans' theorem, when the RGB color components are corrected so that the color of all the image data for each RGB color becomes gray, the background becomes gray as shown in FIG. The person who is the main subject with originally low brightness (high density and darkness) is corrected to be darker and its details are almost completely destroyed.
[0035]
  In contrast, when the main subject portion is extracted and all the image data is corrected so that the luminance (density) of the main subject portion is appropriate as in the present embodiment, as shown in FIG. In addition, although the background with originally high luminance (low density and light) is corrected to be brighter, the person who is the main subject is corrected to appropriate luminance (proper density) so that the details can be clearly identified. As a result, an appropriate correction can be performed even for an image with a biased density, such as a backlight scene. Contrary to the example shown in FIG. 5, even when the main subject has a high brightness and the background brightness is low, as in the case of flash photography in a dark place, an appropriate correction can be similarly performed. it can.
[0036]
  Second embodiment
  Next, a second embodiment of the present invention will be described. In the first embodiment, the pre-scan image is temporarily displayed on the display 203 using the input image data, and the user or operator is configured to specify the range of the main subject to be subjected to luminance correction. In the second embodiment, the color information of the image data is analyzed, and the portion that seems to be the main subject is automatically recognized using the color information.
[0037]
  A block configuration for explaining the functions of the digital printer of the second embodiment is shown in FIG.
[0038]
  As in the case of the first embodiment, the image data input unit 220 includes, for example, an input / output interface, a CPU, a ROM, a RAM, and the like, takes in digital image data output from the data recording / reading device 201 and the scanner 202, It is temporarily stored in a RAM or the like and saved.
[0039]
  The color specifying unit 221 includes a CPU, a ROM, a RAM, and the like. The color specifying unit 221 performs predetermined processing on the input image data, and the color corresponding to each pixel (hereinafter simply referred to as “pixel color”). ). The RGB data is information relating to color and luminance (brightness), and the arithmetic processing shown in Equation 1 is performed on the RGB data to convert it into YCC data (C2, YY, C1) representing luminance information and color difference information. To do. By this conversion, it is possible to extract only information about color from RGB data.
[0040]
  FIG. 7 is a two-dimensional representation of color information with C1 as the vertical axis and C2 as the horizontal axis. The area shown by hatching in FIG. 7 represents an average skin color range of Japanese when a person is photographed as a main subject.
[0041]
  The pixel data extraction unit 222 includes a CPU, a ROM, a RAM, and the like. The pixel data extraction unit 222 is a predetermined color that represents a main subject in which the color of each pixel specified by the color specification unit 221 is set in advance, for example, the skin color of a person All the image data corresponding to the main subject and corresponding to the pixels having a predetermined color or a color included in the predetermined range are extracted and stored in the RAM or the like. Specifically, for all the pixels, the values of C1 and C2 calculated by the color specifying unit 221 are compared with the values of the LUT (lookup table) stored in advance in the ROM, and the values of C1 and C2 are compared. Is determined to be equal to the predetermined value or within a predetermined range. As a result, image data relating to the main subject is extracted from all the pixel data.
[0042]
  The average luminance calculation unit 223 includes a CPU, a ROM, a RAM, and the like, and calculates the average value of the luminance of the portion corresponding to the main subject using all the extracted image data. The present embodiment aims to correct the main subject in the image to an appropriate luminance (density) without being affected by the luminance of other parts such as the background. Luminance information for only the portion of the subject can be obtained.
[0043]
  The correction amount calculation unit 224 includes a CPU, a ROM, a RAM, and the like, and compares the calculated average luminance of the main subject portion with a predetermined luminance value corresponding to a preset appropriate luminance, In order to make the portion have appropriate luminance (appropriate density), a correction amount necessary to match the average value of luminance with a predetermined luminance value is calculated and stored in a RAM or the like.
[0044]
  The image data correction unit 225 includes a CPU, a ROM, a RAM, and the like, and corrects the luminance (RGB data) of the image data regarding all pixels using the calculated correction amount.
[0045]
  The corrected image data output unit 226 includes an input / output interface, a CPU, a ROM, a RAM, and the like, like the image data input unit 220, and outputs corrected image data to the image forming unit 100.
[0046]
  Next, flowcharts of image data processing in the second embodiment are shown in FIGS. In the second embodiment, first, color information for specifying a main subject area, for example, the color of a person's skin is selected from a color chart or the like displayed on a display using a mouse or a keyboard, Set (step S51).
[0047]
  When the image data is read by the image data input unit 220 (step S53), the color specifying unit 221 reads the image data from the RAM of the image data input unit 210, and the color information C1 and C2 for each pixel according to Equation 1 above. Is extracted (step S55), and the color of the pixel is specified for each pixel. Then, the pixel data extraction unit 222 compares the color of each identified pixel with the color of the main subject set in step S51 (step S57), and pixel data or luminance of a pixel having the same color as the color of the main subject. Only the information YY is extracted and stored in the RAM or the like (step S59). Further, the color identification unit 221 or the pixel data extraction unit 222 determines whether or not the pixel color identification, comparison, and pixel data extraction have been completed for all the pixels (step S61), and is completed for all the pixels. Steps S55 to S61 are repeated until the above.
[0048]
  When the pixel color specification, comparison, and pixel data extraction are completed for all the pixels, the average luminance calculation unit 223 has the same color as the color of the main subject using the pixel data or luminance information YY extracted in step S59. A luminance histogram of all pixels is created, and an average luminance value is calculated (step S63).
[0049]
  The correction amount calculation unit 224 compares the calculated average value of luminance with a predetermined luminance value corresponding to preset appropriate luminance, and calculates a luminance correction amount (step S65). When the brightness correction amount is calculated, the brightness correction amount is stored in the RAM of the image data input unit 210 together with, for example, a film frame number for specifying the image data (step S67).
[0050]
  When the luminance correction amount is stored, for example, the correction amount calculation unit 224 determines whether or not the luminance correction amount has been calculated for all the image data (step S69), and the calculation of the luminance correction amount has been completed for all the image data. If not, steps S53 to S69 are repeated.
[0051]
  When the brightness correction amount is calculated for all image data (YES in step S69), the image data correction unit 225 sequentially reads each image data and the brightness correction amount related to the image data (step S71), and uses the brightness correction amount. Each image data is corrected (step S73), and the corrected image data is stored in a RAM or the like (step S75). Further, the image data correction unit 225 determines whether or not the luminance correction has been performed on all the image data to be subjected to the luminance correction (step S77). If the correction has not been completed, steps S71 to S77 are performed. repeat.
[0052]
  When the correction of all the image data is completed, the corrected image data output unit 226 determines whether to output the corrected image data to the image forming unit 100 (step S79). That is, when an image is formed using the corrected image data, the corrected image data output unit 226 outputs the corrected image data to the image forming unit 100 (step S81). Then, the image forming unit 100 forms an image on the photographic paper piece using the corrected image data output from the image data processing unit 200 (step S83), and ends this flow.
[0053]
  Third embodiment
  Next, a third embodiment of the present invention will be described. In the second embodiment, the color of each pixel is specified using all the pixel data in the image data, and the luminance average is calculated using the pixel data of the pixel having the same color as the color of the main subject set in advance. It was configured to calculate the brightness correction amount by obtaining the value,BookIn the embodiment, the image is divided into a plurality of areas, and pixel data of the color information of the image data is used by using pixel data of one or more preselected areas, for example, a part of the area located in the center of the screen. Analysis, calculation of average value of luminance and calculation of luminance correction amount are performed.
[0054]
  FIG. 10 shows a block configuration for explaining the functions of the digital printer of the third embodiment.
[0055]
  As in the first and second embodiments, the image data input unit 230 includes, for example, an input / output interface, a CPU, a ROM, a RAM, and the like, and digital image data output from the data recording / reading device 201 or the scanner 202. Is temporarily stored in a RAM or the like and stored.
[0056]
  The image data dividing unit 231 includes a CPU, a ROM, a RAM, and the like. When it is assumed that an image is formed using any one of the captured image data, the image data dividing unit 231 is divided into a plurality of areas. Correspondingly, the image data is divided into a plurality of groups according to the address of the pixel.
[0057]
  The color specifying unit 232 includes a CPU, a ROM, a RAM, and the like. Among the regions divided by the image data dividing unit 231, one or two or more previously selected regions, for example, a plurality of regions near the center of the screen Using each pixel data included in a group corresponding to a region or the like, the arithmetic processing shown in Equation 1 above is performed on the RGB data to convert it into YCC data (C2, YY, C1) representing luminance information and color difference information. . By this conversion, only information relating to the color is extracted from the RGB data, and the color of each pixel is specified. Furthermore, the color shared by the largest number of pixels in the groupTheSpecified as the color of the area corresponding to the group.
[0058]
  The color comparison unit 233 includes a CPU, a ROM, a RAM, and the like, and is specified by the color specification unit 232.TerritoryThe color of the area is compared with a predetermined color set in advance, for example, the color of the main subject arbitrarily set by the user or operator such as the skin color of a person,This areaThe specified color is included in the colors ofOrJudge whether or not.
[0059]
  The average luminance calculation unit 234 includes a CPU, a ROM, a RAM, and the like.Specified by the color specifying unit 232When it is determined that a predetermined color is included in the color of the area, the average value of the luminance of the area is calculated using the pixel data of the area. In the present embodiment, luminance correction processing is performed using only the image data of a portion where the possibility that a main subject is likely to exist, so that the number of data to be processed is reduced, and the time required for calculation processing is reduced. Is possible.
[0060]
  The correction amount calculation unit 235 includes a CPU, a ROM, a RAM, and the like. The correction amount calculation unit 235 compares the calculated average luminance of the main subject portion with a predetermined luminance value corresponding to a preset appropriate luminance, In order to make the portion have appropriate luminance (appropriate density), a correction amount necessary to match the average value of luminance with a predetermined luminance value is calculated and stored in a RAM or the like.
[0061]
  The image data correction unit 236 includes a CPU, a ROM, a RAM, and the like, and corrects the luminance (RGB data) of the image data regarding all the pixels using the calculated correction amount.
[0062]
  The corrected image data output unit 237 includes an input / output interface, a CPU, a ROM, a RAM, and the like, like the image data input unit 220, and outputs corrected image data to the image forming unit 100.
[0063]
  Next, flowcharts of image data processing in the third embodiment are shown in FIGS.
[0064]
  When the image data is read by the image data input unit 230 (step S101), the image data dividing unit 231 assumes that the virtual image is formed vertically using the image data as shown in FIG. The image data is divided into a plurality (for example, 5 × 5 = 25) in the horizontal direction and the horizontal direction (step S103), and the image data is divided into a plurality of groups according to the pixel addresses and the like so as to correspond to the divided areas.
[0065]
  The color specifying unit 232 reads out from the RAM of the image data input unit 210 pixel data of a group corresponding to one or more pre-selected regions among the regions divided by the image data dividing unit 231 (step S1). S105), color information C1 and C2 for each pixel is extracted according to the above equation 1 (step S107), and the color of the pixel is specified for each pixel. In addition, create a histogram for each pixel color,The groupThe color shared by the largest number of pixels included inThe groupIs specified as the color of the region corresponding to (step S109).
[0066]
  Next, the color comparison unit 233 is identified.TerritoryThe color of the area is compared with the color of the main subject set in advance (step S111),In the color of the areaSame color as main subjectWhether or not is included(Step S113). The same color as the main subjectincludeIn this case, the average luminance calculation unit 234 creates a luminance histogram of all the pixels included in the area using the pixel data or luminance information YY of the area, and calculates the average value of the luminance (step S115). The same color as the main subjectContainsIf not (NO in step S113), the process proceeds to step S121 to perform brightness correction of the next image data.
[0067]
  The correction amount calculation unit 235 compares the calculated average value of luminance with a predetermined luminance value corresponding to preset appropriate luminance, and calculates a luminance correction amount (step S117). When the luminance correction amount is calculated, the luminance correction amount is stored in the RAM or the like of the image data input unit 230 together with, for example, the film frame number for specifying the image data (step S119).
[0068]
  When the luminance correction amount is stored, for example, the correction amount calculation unit 235 determines whether or not the luminance correction amount has been calculated for all image data (step S121), and the calculation of the luminance correction amount has been completed for all image data. If not, steps S101 to S121 are repeated.
[0069]
  When the luminance correction amount is calculated for all the image data (YES in step S121), the image data correction unit 236 sequentially reads each image data and the luminance correction amount related to the image data (step S123), and uses the luminance correction amount. Each image data is corrected (step S125), and the corrected image data is stored in a RAM or the like (step S127). Further, the image data correction unit 236 determines whether or not the luminance correction has been performed on all the image data to be subjected to the luminance correction (step S129). If the correction has not been completed, steps S123 to S129 are performed. repeat.
[0070]
  When the correction of all the image data is completed, the corrected image data output unit 237 determines whether to output the corrected image data to the image forming unit 100 (step S131). That is, when an image is formed using the corrected image data, the corrected image data output unit 237 outputs the corrected image data to the image forming unit 100 (step S133). Then, the image forming unit 100 forms an image on a piece of photographic paper using the corrected image data output from the image data processing unit 200 (step S135), and this flow ends.
[0071]
  Other embodiments
  In each of the above embodiments, the main subject region is specified, and the luminance correction amount is determined so that the average luminance value of the main subject region becomes a predetermined luminance value corresponding to the appropriate luminance. However, the present invention is not limited to this. Instead, a value obtained by multiplying the difference between the average luminance value and the predetermined luminance value by a predetermined coefficient (for example, an arbitrary value between 60% and 80%) may be used as the luminance correction amount. good. That is, as shown in FIG. 7, even if the color of a person's skin is taken as an example of the color of the main subject, the color of the main subject may not be a single color but may have a certain color range. If the luminance is corrected only for a region having (for example, the color of a person's skin), the correction is excessive for other color regions similar to that color, and the image quality after correction may be deteriorated. . Also, if the brightness of the main subject before correction is extremely high or low compared to the appropriate brightness, if the brightness of the main subject area is completely corrected to the proper brightness, the brightness of the parts other than the main subject will be abnormal. May become low or high. Therefore, in these cases, it is preferable not to completely correct the luminance of the main subject area to the appropriate luminance, but to correct the luminance close to the appropriate luminance. Further, in each of the above embodiments, the color of the main subject area is treated as a single color, but the present invention is not limited to this, and a plurality of colors included in a predetermined range may be used.
[0072]
  In the first embodiment, the pre-correction image is displayed on the monitor screen of the display 203 as a pre-scan image. However, the print image is further displayed on the display 203 using the corrected image data. You may display on a monitor screen. Further, when displaying a pre-scan image on the monitor screen of the display 203 and when calculating the luminance correction amount of the main subject area, the number of pixels of the image data may be thinned. The latter is the same in the second and third embodiments.
[0073]
  Furthermore, in each of the above-described embodiments, the digital printer is described as an example of the image forming apparatus. However, the present invention is not limited to this, and the personal computer and a color printer connected thereto, for example, a thermal transfer color printer, an ink jet color printer, and the like. A printer, a laser color printer, or the like may be used.
[0074]
  Furthermore, the present invention is not limited to an image forming apparatus, but also includes an image data correction method executed by a personal computer and a recording medium on which a program for executing the method is recorded.
[0075]
【The invention's effect】
  As explained above, the present inventionDrawings related toAccording to the image forming apparatus,Image data dividing means for dividing image data composed of a plurality of pixel data into a plurality of groups so as to correspond to each region when an image formed using the image data is divided into a plurality of regions; Among the divided areas, the color of the pixel is specified from each pixel data included in a group corresponding to one or more previously selected areas, and the largest number of pixels among the pixels included in the group Color specifying means for specifying the color shared by the group as the color of the area corresponding to the group, color comparing means for comparing the color of the specified area with a predetermined color set in advance, and the color of the area When the predetermined color is included in the image, the average luminance calculation means for calculating the average value of the luminance of the region using the pixel data included in the region, and the average value of the calculated luminance Correction amount calculation means for calculating a correction amount for correcting to a predetermined luminance value set in advance, image data correction means for correcting all pixel data using the calculated correction amount, and corrected image data An image forming means for forming an image usingIt comprises.
[0076]
  In addition, the present inventionPertaining toAccording to the image data processing method,An image data dividing step of dividing image data composed of a plurality of pixel data into a plurality of groups so as to correspond to each region when an image formed using the image data is divided into a plurality of regions; Among the divided areas, the color of the pixel is specified from each pixel data included in a group corresponding to one or more previously selected areas, and the largest number of pixels among the pixels included in the group A color specifying step for specifying a color shared by the group as a color of an area corresponding to the group, a color comparing step for comparing the color of the specified area with a predetermined color set in advance, and a color of the area An average luminance calculation step for obtaining an average value of luminance of the area using pixel data included in the area when the predetermined color is included in A correction amount calculation step for calculating a correction amount for correcting the average value of the obtained luminance to a predetermined luminance value set in advance, and an image data correction step for correcting all pixel data using the determined correction amount; A corrected image data output step for outputting corrected image data;It comprises.
[0077]
  Furthermore, the present inventionPertaining toAccording to the recording medium on which the image data processing program is recorded,Image data division processing for dividing image data composed of a plurality of pixel data into a plurality of groups so as to correspond to each region when an image formed using the image data is divided into a plurality of regions; Among the divided areas, the color of the pixel is specified from each pixel data included in a group corresponding to one or more previously selected areas, and the largest number of pixels among the pixels included in the group A color specifying process for specifying a color shared by the group as a color of the area corresponding to the group, a color comparing process for comparing the color of the specified area with a predetermined color, and a color of the area When the predetermined color is included in the image, the average luminance calculation processing for obtaining the average value of the luminance of the region using the pixel data included in the region, and the average value of the obtained luminance Correction amount calculation processing for calculating a correction amount for correcting to a predetermined luminance value set in advance, image data correction processing for correcting all pixel data using the calculated correction amount, and corrected image data Corrected image data output processing for outputtingIs recorded to make the computer execute.
[0078]
  That is, according to these inventions, PaintingSince the brightness of the image data is automatically corrected without displaying the image once on the monitor screen, the total processing time can be shortened. If it is assumed that an image is formed using image data, the image is divided into a plurality of areas, and one or more areas that the user or operator thinks that the main subject is likely to exist are selected. Since the luminance correction is performed using only the pixel data included in the selected area, the number of pixel data used for calculating the luminance correction amount can be greatly reduced, and the time required for calculating the luminance correction amount can be reduced. It can be shortened.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an external configuration of a digital printer according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a digital printer according to the first embodiment of the present invention.
FIG. 3 is a flowchart of image data processing in the first embodiment.
FIG. 4 is a continuation of the flowchart of FIG.
FIG. 5 is a diagram for explaining an effect of luminance correction of image data according to the present invention.
FIG. 6 is a block diagram of a digital printer according to a second embodiment of the present invention.
FIG. 7 is a diagram two-dimensionally representing color information.
FIG. 8 is a flowchart of image data processing in the second embodiment.
9 is a continuation of the flowchart of FIG.
FIG. 10 is a block diagram of a digital printer according to a third embodiment of the present invention.
FIG. 11 is a flowchart of image data processing in the third embodiment.
FIG. 12 is a continuation of the flowchart of FIG.
FIG. 13 is a diagram illustrating a state in which a virtual image is divided into a plurality of regions in the third embodiment.
[Explanation of symbols]
100: Image forming unit
200: Image data processing unit
210: Image data input unit
211: Image playback unit
212: Range selection unit
213: Average luminance calculation unit
214: Correction amount calculation unit
215: Image data correction unit
216: Corrected image data output unit
220: Image data input unit
221: Color identification part
222: Pixel data extraction unit
223: Average luminance calculation unit
224: Correction amount calculation unit
225: Image data correction unit
226: Corrected image data output unit
230: Image data input unit
231: Image data dividing unit
232: Color specifying part
233: Color comparison unit
234: Average luminance calculation unit
235: Correction amount calculation unit
236: Image data correction unit
237: corrected image data output unit

Claims (7)

複数の画素データで構成された画像データを、その画像データを用いて形成される画像を複数の領域に分割した場合の各領域に対応するように複数のグループに分割する画像データ分割手段と、
分割された各領域のうち、あらかじめ選択されている1又は2以上の領域に対応するグループに含まれる各画素データからその画素の色を特定し、そのグループに含まれる画素のうち最も多数の画素が共有する色をそのグループに対応する領域の色として特定する色特定手段と、
特定された前記領域の色とあらかじめ設定されている所定の色とを比較する色比較手段と、
記領域の色の中に前記所定の色が含まれている場合に、その領域に含まれる画素データを用いてその領域の輝度の平均値を求める平均輝度演算手段と、
求められた輝度の平均値をあらかじめ設定された所定の輝度値に補正するための補正量を演算により求める補正量演算手段と、
求められた補正量を用いて全画素データを補正する画像データ補正手段と、
補正された画像データを用いて画像を形成する画像形成手段と、
を具備することを特徴とする画像形成装置。
Image data dividing means for dividing image data composed of a plurality of pixel data into a plurality of groups so as to correspond to each region when an image formed using the image data is divided into a plurality of regions;
Among the divided areas, the color of the pixel is specified from each pixel data included in a group corresponding to one or more previously selected areas, and the largest number of pixels among the pixels included in the group a color identification means but be specified as a color of the region corresponding to that group the color to be shared,
Color comparing means for comparing the color of the identified area with a predetermined color set in advance;
If it contains the predetermined color in the color before Symbol area, the average luminance calculating means for calculating an average value of luminance of the region using the pixel data included in the region,
A correction amount calculation means for calculating a correction amount for correcting the average value of the determined luminance to a predetermined luminance value set in advance;
Image data correction means for correcting all pixel data using the determined correction amount;
Image forming means for forming an image using the corrected image data;
An image forming apparatus comprising:
前記補正量は、前記所定の輝度値と前記輝度の平均値との差に所定の係数を掛けた値であることを特徴とする請求項に記載の画像形成装置。The image forming apparatus according to claim 1 , wherein the correction amount is a value obtained by multiplying a difference between the predetermined luminance value and the average value of the luminance by a predetermined coefficient. 前記所定の色は人間の皮膚に関する色であることを特徴とする請求項1又は請求項2に記載の画像形成装置。The predetermined color image forming apparatus according to claim 1 or claim 2, characterized in that the color of human skin. 複数の画素データで構成された画像データを、その画像データを用いて形成される画像を複数の領域に分割した場合の各領域に対応するように複数のグループに分割する画像データ分割ステップと、
分割された各領域のうち、あらかじめ選択されている1又は2以上の領域に対応するグループに含まれる各画素データからその画素の色を特定し、そのグループに含まれる画素のうち最も多数の画素が共有する色をそのグループに対応する領域の色として特定する色特定ステップと、
特定された前記領域の色とあらかじめ設定されている所定の色とを比較する色比較ステップと、
記領域の色の中に前記所定の色が含まれている場合に、その領域に含まれる画素データを用いてその領域の輝度の平均値を求める平均輝度演算ステップと、
求められた輝度の平均値をあらかじめ設定された所定の輝度値に補正するための補正量を演算により求める補正量演算ステップと、
求められた補正量を用いて全画素データを補正する画像データ補正ステップと、
補正された画像データを出力する補正画像データ出力ステップと、
を具備することを特徴とする画像データ処理方法。
An image data dividing step of dividing image data composed of a plurality of pixel data into a plurality of groups so as to correspond to each region when an image formed using the image data is divided into a plurality of regions;
Among the divided areas, the color of the pixel is specified from each pixel data included in a group corresponding to one or more previously selected areas, and the largest number of pixels among the pixels included in the group a color specifying step but be specified as a color of the region corresponding to that group the color to be shared,
A color comparison step of comparing the predetermined color that has been previously set the color of the identified said region,
If it contains the predetermined color in the color before Symbol area, the average luminance calculating step of obtaining an average value of the luminance of the region using the pixel data included in the region,
A correction amount calculating step for calculating a correction amount for correcting the average value of the determined luminance to a predetermined luminance value set in advance;
An image data correction step for correcting all pixel data using the determined correction amount;
A corrected image data output step for outputting the corrected image data;
An image data processing method comprising:
前記補正量は、前記所定の輝度値と前記輝度の平均値との差に所定の係数を掛けた値であることを特徴とする請求項に記載の画像データ処理方法。The image data processing method according to claim 4 , wherein the correction amount is a value obtained by multiplying a difference between the predetermined luminance value and the average value of the luminance by a predetermined coefficient. 前記所定の色は人間の皮膚に関する色であることを特徴とする請求項4又は請求項5に記載の画像データ処理方法。Image data processing method according to claim 4 or claim 5, wherein the predetermined color is the color of human skin. 複数の画素データで構成された画像データを、その画像データを用いて形成される画像を複数の領域に分割した場合の各領域に対応するように複数のグループに分割する画像データ分割処理と、
分割された各領域のうち、あらかじめ選択されている1又は2以上の領域に対応するグループに含まれる各画素データからその画素の色を特定し、そのグループに含まれる画素のうち最も多数の画素が共有する色をそのグループに対応する領域の色として特定する色特定処理と、
特定された前記領域の色とあらかじめ設定されている所定の色とを比較する色比較処理と、
記領域の色の中に前記所定の色が含まれている場合に、その領域に含まれる画素データを用いてその領域の輝度の平均値を求める平均輝度演算処理と、
求められた輝度の平均値をあらかじめ設定された所定の輝度値に補正するための補正量を演算により求める補正量演算処理と、
求められた補正量を用いて全画素データを補正する画像データ補正処理と、
補正された画像データを出力する補正画像データ出力処理と、
をコンピュータに実行させるための画像データ処理プログラムを記録した記録媒体。
Image data division processing for dividing image data composed of a plurality of pixel data into a plurality of groups so as to correspond to each region when an image formed using the image data is divided into a plurality of regions;
Among the divided areas, the color of the pixel is specified from each pixel data included in a group corresponding to one or more previously selected areas, and the largest number of pixels among the pixels included in the group color specifying process but be specified as a color of the region corresponding to that group the color to be shared,
Color comparing process for comparing the predetermined color that has been previously set the color of the identified said region,
If it contains the predetermined color in the color before Symbol area, the average luminance calculation process for obtaining the average value of the luminance of the region using the pixel data included in the region,
A correction amount calculation process for calculating a correction amount for correcting the average value of the calculated luminance to a predetermined luminance value set in advance;
Image data correction processing for correcting all pixel data using the obtained correction amount;
A corrected image data output process for outputting the corrected image data;
A recording medium on which an image data processing program for causing a computer to execute is recorded.
JP2000321379A 2000-10-20 2000-10-20 Image forming apparatus, image data processing method, and recording medium recording image data processing program Expired - Fee Related JP4333016B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000321379A JP4333016B2 (en) 2000-10-20 2000-10-20 Image forming apparatus, image data processing method, and recording medium recording image data processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000321379A JP4333016B2 (en) 2000-10-20 2000-10-20 Image forming apparatus, image data processing method, and recording medium recording image data processing program

Publications (2)

Publication Number Publication Date
JP2002135559A JP2002135559A (en) 2002-05-10
JP4333016B2 true JP4333016B2 (en) 2009-09-16

Family

ID=18799517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000321379A Expired - Fee Related JP4333016B2 (en) 2000-10-20 2000-10-20 Image forming apparatus, image data processing method, and recording medium recording image data processing program

Country Status (1)

Country Link
JP (1) JP4333016B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004118442A (en) * 2002-09-25 2004-04-15 Nec Corp Image color correction device, image color correction method, and image color correction program
KR100850460B1 (en) * 2002-10-10 2008-08-07 삼성테크윈 주식회사 Method for improving face image within digital camera
JP4780104B2 (en) * 2005-06-03 2011-09-28 株式会社ニコン Image processing apparatus, image processing method, image processing program product, and imaging apparatus
JP4844307B2 (en) * 2006-09-07 2011-12-28 セイコーエプソン株式会社 Print control apparatus and print control method
JP5207712B2 (en) * 2006-11-27 2013-06-12 キヤノン株式会社 Image forming apparatus

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3387071B2 (en) * 1993-04-20 2003-03-17 ソニー株式会社 Image identification apparatus and method
JP3673092B2 (en) * 1998-09-24 2005-07-20 シャープ株式会社 Image quality adjusting apparatus, image quality adjusting method, and recording medium recording image adjusting program
JP2000224607A (en) * 1999-01-28 2000-08-11 Matsushita Electric Ind Co Ltd Image processor
JP2000261650A (en) * 1999-03-05 2000-09-22 Toshiba Corp Image processing unit

Also Published As

Publication number Publication date
JP2002135559A (en) 2002-05-10

Similar Documents

Publication Publication Date Title
US6396599B1 (en) Method and apparatus for modifying a portion of an image in accordance with colorimetric parameters
US7289664B2 (en) Method of detecting and correcting the red eye
JP4368513B2 (en) Image processing method and apparatus, and recording medium
JP4421761B2 (en) Image processing method and apparatus, and recording medium
JP2004274720A (en) Data conversion apparatus and data conversion program
JP4281244B2 (en) Image forming apparatus, image data processing method, and recording medium recording image data processing program
JP2001148780A (en) Method for setting red-eye correction area and red-eye correction method
JP4333016B2 (en) Image forming apparatus, image data processing method, and recording medium recording image data processing program
JP2003281562A (en) Image display method and image processor for executing it
US6658163B1 (en) Image processing method
JP4415488B2 (en) Image forming apparatus, image data processing method, and recording medium recording image data processing program
JP5070921B2 (en) Development processing apparatus for undeveloped image data, development processing method, and computer program for development processing
JPH08110603A (en) Color adjusting method and device
JP2009070099A (en) Image-processing device, image-processing method, program and recording medium
JP2005159387A (en) Method of determining density characteristic curve and density correction management apparatus for executing this method
JP2008278333A (en) Image processing device and method
JP2001061071A (en) Image correction device and image correction method
JP2006146646A (en) Method and apparatus for processing photographic image
JPH11308474A (en) Image processor
JP2006059162A (en) Tooth image correction method and device
JP2001245153A (en) Image processing method and apparatus
JP4317803B2 (en) Image processing method and image processing apparatus
JP3740150B2 (en) How to create an index print
JP2002209090A (en) Test print generating method and photo image print method employing it
JP2003319298A (en) Image processing method, image processor, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090602

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090615

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130703

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees