JP4189959B2 - Image processing apparatus, image processing method, program, and recording medium - Google Patents

Image processing apparatus, image processing method, program, and recording medium Download PDF

Info

Publication number
JP4189959B2
JP4189959B2 JP2003136712A JP2003136712A JP4189959B2 JP 4189959 B2 JP4189959 B2 JP 4189959B2 JP 2003136712 A JP2003136712 A JP 2003136712A JP 2003136712 A JP2003136712 A JP 2003136712A JP 4189959 B2 JP4189959 B2 JP 4189959B2
Authority
JP
Japan
Prior art keywords
color
user
reference data
output
data group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003136712A
Other languages
Japanese (ja)
Other versions
JP2004343365A (en
Inventor
保 梶原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2003136712A priority Critical patent/JP4189959B2/en
Publication of JP2004343365A publication Critical patent/JP2004343365A/en
Application granted granted Critical
Publication of JP4189959B2 publication Critical patent/JP4189959B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Color Image Communication Systems (AREA)
  • Color, Gradation (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ユーザの好みに適した補正処理を施す画像処理装置、画像処理方法、プログラムおよび記録媒体に関する。
【0002】
【従来の技術】
RGB形式からCMYK形式への色変換においては、出力装置の機械的なプロセス条件や出力画像の内容によって微調整された画像処理の結果、CMYKの値として算出される。この色変換方法は印刷装置内に予め決められた変換式または変換係数として保持されているため、出力画像に対して一様に画像処理が施される。
【0003】
しかしながら、出力された色の印象はユーザによって異なるものであり、個人的な好みにも左右される。中でも特に、記憶色と呼ばれる人間の肌色、空の青、草木の緑などの人の記憶に残り易い特定の色は、これに対するユーザの目が敏感であるため、ユーザの相違による影響を受けやすい。例えば、ユーザの人種(地域)、年齢、性別、嗜好が異なる場合、ユーザの各記憶色に対する好みの再現色は、大きく異なっている。
【0004】
また、出力装置を複数のユーザによって共有している場合、出力装置を共有する全てのユーザの要求を満たす画像処理を施すことは困難であった。このため、従来からユーザの好みに応じた記憶色を出力する種々の技術が提案されている。
【0005】
例えば、入力装置および出力装置の色再現特性を記述した色変換特性およびユーザの修正情報とその履歴情報を用いて、入力画像と出力画像の所定色が一致するように、色補正パラメータを修正する技術が提案されている(例えば、特許文献1を参照)。特許文献1では、ユーザの人種(地域)、年齢、性別、嗜好が大きく異なる記憶色に対しても入力画像と出力画像の所定色を一致させる、所謂カラーマッチングなる画像処理を施すものである。この概要を図1を参照して説明する。
【0006】
図1は、入力画像のある入力値P0(×)に対する出力値P1(○)の関係を、ある明度における6色相分割面領域にプロットしたものである。ユーザは入力値(×)を出力値(○)に修正すると、その修正量と修正履歴に基づいて、入力値(×)が出力値(○)で出力されるように補正処理が施される。
【0007】
しかし、本発明者等が鋭意研究した結果、画像の色のズレが大きい場合でも、特定の色に対しては、図1の入力値に対して出力を出力値P2(◎)なる位置に補正した方がより好ましい画像と知覚される。この特定の色は、人間の記憶色に関わる色において顕著であったこと、さらに、好ましい画像の補正処理は特定の補正方向であったことに鑑み、本発明に至った。
【0008】
また、色み調整に関するプロファイルをユーザ毎に記憶し、ユーザのプロファイルに応じて入力画像の色み、あるいは濃度を調整する技術がある(例えば、特許文献2を参照)。特許文献2では、ユーザの色みに関するプロファイルを画像処理装置の記憶部が保持するため、入力画像に対してユーザ各々が好ましい色みに調整できる技術として有用である。特許文献2におけるユーザごとのプロファイル作成方法は、ユーザ自身が補正量を調整し、調整した補正量に基づきプロファイルを作成する。例えば、ある入力画像の青みを増やして出力する場合は、入力画像のRGB信号を次式(1)により調整したR’G’B’信号とする。前記補正量(次式のα)をプロファイルとして記憶するものである。
R’=RxαR、G’=G、B’=B (1)
ここで、αはユーザが調整した調整量
【0009】
しかし、上記技術では、ある画像Aに対してユーザが補正量を調整し、補正量αAを含むプロファイルPAを作成する。次いで、ある画像Bに対してユーザが補正量を調整し、補正量αBを含むプロファイルPBを作成する。さらに、ある画像Cに対してユーザが補正量を調整し、補正量αCを含むプロファイルPCを作成する。この場合、画像ごとにプロファイルを複数作成し、記憶することが考えられるが、画像Xが入力された場合に、プロファイルPA,PB,PCなどをユーザ自身が指定する必要が生じ、ユーザ負担が大きい。
【0010】
さらに、色補正パラメータとして、肌色調整度合いに応じて肌色、草の緑、および空の青という各記憶色の色補正パラメータを、それぞれ対応づけて記憶し、肌色の調整を行なうと、肌色、草の緑、空の青などの他の記憶色の色補正パラメータも設定されるため、ユーザは少ない操作で好みの記憶色が再現される技術もある(例えば、特許文献3を参照)。前掲した特許文献2におけるユーザの負担を低減しつつ、好みの色に調整できる技術として有用である。
【0011】
上記技術によれば、地域、年齢、性別等で分類されたユーザに対する色変換パラメータを予め準備し、これに応じた色補正を施すものである。
【0012】
図2は、ユーザと照明光に対応した色補正パラメータを示している。例えば、ユーザが好みの肌色の調整度合いとして図2の肌色調整1を選択すると、肌色の他に、草の緑、および空の青も同時にユーザが好むであろう色が再現されるように色変換パラメータが設定される。
【0013】
【特許文献1】
特開2000−4369号公報
【特許文献2】
特開2001−202221号公報
【特許文献3】
特開2001−298629号公報
【0014】
【発明が解決しようとする課題】
しかし、ユーザの好みの補正する度合は、予め色補正パラメータにより定められている。従って、ユーザはある記憶色に関する補正量を強く補正し、別の記憶色に関する補正量を弱く補正する(例えば、図2の肌色の色補正パラメータP11を大きくし、草の緑の色補正パラメータP12を小さくする)ことは難しい。もし、上記技術による解決を試行すれば、ユーザ毎に色変換パラメータを多数準備することになり、課題の根本的な解決とはなり得ない。
【0015】
本発明は上記した問題点に鑑みてなされたもので、
本発明の目的は、ユーザ毎に好ましい色変換を行うとともに、ユーザ負担を低減し、ユーザの好みに適した色補正処理を行う画像処理装置、画像処理方法、プログラムおよび記録媒体を提供することにある。
【0016】
【課題を解決するための手段】
本発明は、ユーザの履歴情報を記憶する第1の記憶手段と、予め複数の入出力関係に基づく第1の多次元基準空間を記憶した第2の記憶手段と、前記履歴情報と基準空間とに基づき第2の多次元基準空間を生成する生成手段と、前記第1あるいは第2の多次元基準空間を選択する選択手段と、前記選択結果に基づいて色補正パラメータを演算する演算手段、および前記演算結果に応じて色補正処理を施す補正手段とを有することを一つの特徴とし、これにより、ユーザの負担を低減しつつ、ユーザの好ましい画像に補正処理できる画像処理が可能となる。
【0017】
【発明の実施の形態】
以下、本発明の実施例を図面を用いて具体的に説明する。
【0018】
(実施例1)
図3は、本発明が適用されるシステム構成例を示す。図3に示す装置構成は、情報処理装置A、情報処理装置B、および出力装置Aがネットワークを介して接続されている。情報処理装置としては、例えばパソコン等があげられ、出力装置としては、例えばプリンタ、複写機などのデバイスがあげられる。なお、本発明が適用される装置構成は、上記した例に限定されない。
【0019】
図4は、本発明の実施例の構成を示す。図4における画像入力手段10と画像処理手段20は、図3の情報処理装置A、情報処理装置Bに実装され、画像出力手段30は出力装置Aに相当する。
【0020】
入力画像データは、画像入力手段10から入力され、画像処理手段20において補正処理を施された後、画像出力手段30で出力される。このとき色空間として任意の色空間を適用することが可能である。例えば、Lab知覚空間、Luv知覚空間、YCbCr空間などがあげられるが、本実施例ではLab知覚空間に適用した場合を説明する。
【0021】
画像処理手段20は、ユーザーの履歴情報を取得する履歴情報取得手段20aと、第1のマハラノビス空間とその基準データ群を記憶する記憶手段20bと、前記基準データ群と履歴情報から第2のマハラノビス空間を構築するマハラノビス空間構築手段20cと、前記第2のマハラノビス空間に基づいて色補正パラメータを算出する色補正パラメータ算出手段20dと、前記算出された色補正パラメータに基づいて入力画像データに対して色補正を施す色補正手段20eとから構成されている。
【0022】
以下、画像処理手段20を構成する各要素について詳述する。
【0023】
ユーザーの履歴情報を取得する履歴情報取得手段20aは、ユーザが既に出力した出力画像データから出力履歴を取得する。すなわち、ユーザの出力画像データの代表値を算出し、その出力枚数とともにユーザの履歴情報として記憶しておく。
【0024】
出力画像データの代表値算出方法、ユーザの履歴情報について説明する。
【0025】
出力画像データの代表値は、出力画像データの1画素の色情報を所定の領域に分割した色空間内にプロットし、この頻度分布を算出する。このときの記憶色に関わる色で、かつ頻度分布が高い色を代表色とする。このときの記憶色とは、予め所定の色、あるいは色の範囲を記憶しておき、算出した代表色が記憶されている所定の色、あるい色の範囲に含まれているか否かを判別することで可能となる。その例を図5に示す。図の左から入力画像データのRGB値、頻度、その色が記憶色に該当するか否かの有無を記憶する。ここでは、記憶色に関わる色であり、かつ頻度分布における最頻値の(R,G,B)=(224,165,145)が代表色として算出される。なお、本実施例では入力画像データの代表色として最頻値を用いたが、平均値、重心値、尖度などの統計量に基づいた値を適用することが可能である。
【0026】
ユーザの履歴情報は、前記出力画像データの代表値と、その出力枚数である。この履歴情報は、ユーザ毎に一元的に管理・記憶すると、ユーザに応じた後述の色補正処理が施せるため望ましい。なお、ユーザの識別情報としては、ネットワーク上の管理情報であるTCP/IP,IPP,NetBEUI等の情報、あるいはプリンタドライバ上のユーザ名などを用いることが可能である。図6は、その例を示すが、プリンタドライバから取得したユーザ名、入力画像データの代表色、その出力枚数を記憶している。
【0027】
第1のマハラノビス空間とその基準データ群を記憶する記憶手段20bは、基準データ群および、その基準データ群から構成されるマハラノビス空間とを記憶している。
【0028】
基準データ群の作成方法を説明すると、複数の画像サンプルを提示し、提示した画像サンプルに対して、好ましい色に感じるように、色補正処理を施す。はじめに提示した画像を元画像、色補正処理後の画像を補正後画像とし、得られた元画像と補正後画像の代表色とを基準データ群とする。
【0029】
図7は、基準データ群の例であり、元画像のLab値(orgL,org_a,org_b)と補正後画像のLab値(chg_L,chg_a,chg_b)とからなる。このときの代表色抽出方法は、画像サンプルの1画素の色情報を所定の領域に分割した色空間内にプロットし、この頻度分布を算出する。このとき頻度分布が高く、かつ記憶色に関わる色を代表色(記憶色)、記憶色に関わらない色を代表色(背景色)とする。そして、記憶色に関わる代表色(記憶色)を「基準データ群」とする。なお、本実施例では画像の代表色として最頻値を用いたが、平均値、重心値、尖度などの統計量に基づいた値を適用することが可能である。
【0030】
前記「基準データ群」を用いて、マハラノビス空間を作成する。このときの算出方法を次に示す。
1.「基準データ群」の正規化
前記元画像と修正後画像のLab値を基準データとする。すなわち、org_L,org_b,org_b,chg_L,chg_a,およびchg_bの各変量ごとに、それらの平均と標準偏差を算出し、次式(2)に従って、データを正規化する。
【0031】
【数1】

Figure 0004189959
このとき、Y,i,jはそれぞれ変量,変量の数,サンプル数である。
【0032】
2.変量間の相関係数行列の算出
各変量間の相関係数を算出する。すなわち、すべての変量から2個を取り出す組合せについて、次式(3)で相関係数を算出する。
【数2】
Figure 0004189959
このとき、rは相関係数、p,qは変量である。
【0033】
3.相関行列の作成
対角要素を1、その他のp行q列の要素をrpqとした相関行列Rを作成する。
【数3】
Figure 0004189959
【0034】
4.相関行列の逆行列の算出
上記相関行列Rの逆行列matAを算出する
【数4】
Figure 0004189959
【0035】
5.「マハラノビス空間」の作成
上記したように作成した相関行列matAを「マハラノビス空間」とする。
【0036】
第2のマハラノビス空間を構築する構築手段20cは、前記基準データ群と履歴情報とから第2のマハラノビス空間を構築する。
【0037】
第2のマハラノビス空間の作成方法は、まず、第1のマハラノビス空間の「基準データ群」の代表色と、ユーザの履歴情報における代表色との関係より、基準データ群の代表色を抽出する。次いで、両代表値間の色差が最小となる「基準データ群」の代表色を抽出する。そして、ユーザの履歴情報における出力枚数に応じて「基準データ群」のサンプル数を増加し、「更新基準データ群」を作成した後、これに基づいて第2のマハラノビス基準空間を作成する。以下、その詳細を説明する。
【0038】
図8は、本発明の実施例に係る第2のマハラノビス空間作成方法を示す。本実施例では、sRGB環境を想定し、入力プロファイルに応じたLabに変換する。
【0039】
ユーザの履歴情報から出力画像データの代表値を取得する(ステップ101)。実施例では、(R,G,B)=(224,165,145)を取得し、これをLabに変換し、(L,a,b)=(73,21,19)を得る。
【0040】
次いで、第1のマハラノビス空間の基準データ群における元画像の代表色を取得する(ステップ103)。実施例では、(org_L,org_a,org_b)=(74,29,21)を取得する。
【0041】
次いで、ステップ101で取得したユーザ代表色とステップ103で取得した基準データ群における元画像の代表色の相対距離(色差)を算出し、これを所定回数繰返す(ステップ102、104)。なお、色差のΔEは次式で算出する。
【数5】
Figure 0004189959
【0042】
続いて、前記色差を最小とする、第1のマハラノビス空間の基準データ群の代表色を抽出する(ステップ105)。実施例では、基準データ群の第1番目の代表色が抽出される。つまり、(org_L,org_a,org_b,chg_L,chg_a,およびchg_b)=(74,29,21,83,20,24)が抽出される。
【0043】
続いて、ユーザの履歴情報の出力枚数に基づいて、基準データ群のサンプル数を更新する(ステップ106)。実施例では、図9に示すように、基準データ群を更新した。すなわち、第1番目の代表色を出力枚数だけ増加さ、「更新基準データ群」を作成する。
【0044】
最後に、前記「更新基準データ群」に基づき第2のマハラノビス空間を作成する(ステップ107)。第2のマハラノビス空間の行列要素の算出方法は、第1のマハラノビス空間、基準データ群を記憶する記憶手段20b中で説明したマハラノビス空間生成方法と同様である。
【0045】
色補正パラメータ算出手段20dは、前記第2のマハラノビス空間に基づいて入力値と出力値との相対距離を算出する算出手段と、前記相対距離を最小とする色補正パラメータを算出する第2の算出手段とから構成される。実際の色補正方式は、処理方式やメモリ容量あるいは、変換精度を考慮して定めるため、種々の公知の色変換方式を適用することが可能である。
【0046】
本実施例の適用例として、6色相分割したマスキングパラメータの算出方法について説明する。なお、マスキングパラメータとは、色空間を無彩色軸を中心として放射状に拡がる平面で分割し、分割色空間ごとに対応した色補正係数の係数である。
【0047】
図10は、マスキングパラメータ作成のフローチャートを示す。 6色相で分割された色分割空間を選択する(ステップ201)。これは、固定した2つの制御点Black(FFF)、White(000)と2つの制御点P1(P1R,P1G,P1B)、P2(P2R,P2G,P2B)に囲まれた色分割空間である。例えば、記憶色の肌色近い色分割空間は、P1(F00),P2(FF0),Bk(FFF),W(000)が選択される。
【0048】
前記「更新基準データ群」の入力Lab値をin_L,in_b,in_b,修正後Lab値をout_L,out_a,out_bとしたときのマハラノビス距離を次式(7)で算出する(ステップ203)。
【数6】
Figure 0004189959
入力Lab値は、in_L,in_a,in_b、
入力Lab値の平均は、in_Lave,in_aave,in_bave
出力Lab値はout_L,out_a,out_b
出力Lab値の平均はout_Lave,out_aave,out_bavematAは第2のマハラノビス基準空間であり、
【数7】
Figure 0004189959
は行列Yの転置行列である。
【0049】
マハラノビス距離が最小となるマスキングパラメータを算出する(ステップ204)。マスキングパラメータは、式(8)の関係を満たす要素P11,P12,P13,P21,P22,P23,P31,P32,およびP33である。このとき、最小値の算出は種々の最適化手法を適用可能であるが、本実施例ではパウエル法を適用し、式(9)に示すマスキングパラメータを得た。
【数8】
Figure 0004189959
【0050】
前記マスキングパラメータを分割色空間で算出し、所定の回数試行を繰返し、マスキングパラメータを得る(ステップ202)。すなわち、RGB色空間をRed,Green,Blue,Cyan,Magenta,およびYellowの6色相面に分割した本実施例では、6色相の空間上の各色相はそれぞれR(F00),G(0F0),B(00F),C(0FF),M(F0F),およびY(FF0)中の2つの制御点のそれぞれについてマスキングパラメータを算出する。
【0051】
色補正手段20eおよび画像出力手段30は、前記マスキングパラメータに基づいて入力画像データを出力装置固有の色信号に変換する変換手段と、得られた出力値に基づいて、画像データを出力する出力手段とから構成される。すなわち、入力された画像データに対して、算出したマスキングパラメータに基づいて色補正を施した後、得られた出力値を出力装置固有の色信号に変換し、該出力信号を出力装置で出力する。このとき、入力画像データ(RGBデータ)は、前述の処理を施され(out_R,out_G,およびout_B)た後、次式(10)式により出力装置固有の色信号(Y,M,C,Bk)に変換される。なお、本実施例では色変換方式としてマトリックス変換を用いたが、メモリマップ法、メモリマップ補間法などを用いることも可能である。
【0052】
【数9】
Figure 0004189959
【0053】
実施例1によれば、ユーザの好ましさに、より好適な補正処理を施した画像が得られる。
【0054】
(実施例2)
図3を参照して実施例2を説明する。なお、本実施例が適用される装置構成は、図3に限定されない。ここで、あるユーザAが情報処理装置Aから画像を随時出力しており、次いで、異なる情報処理装置Bで画像を出力する場合を想定する。もちろん、情報処理装置Bの出力傾向は、情報処理装置Aからの出力傾向と異なる。このとき、次のステップを行うことで、ユーザAが好む画像を情報処理装置Bで得ることが可能となる。
【0055】
すなわち、ユーザーの履歴情報を取得する取得手段20aは、ユーザの出力履歴を情報処理装置Aより取得し、取得した情報に基づいて、色補正処理を施して、入力画像データを出力する。以下、この詳細を説明する。
【0056】
情報処理装置Bにおける取得手段20aは、出力装置Aの履歴情報を取得し、ユーザAの出力画像データの代表値、その出力枚数などを次のステップに従って取得する。
【0057】
(ステップ1)
情報処理装置Bでは、情報処理装置Bで画像データを出力する直前に、(図示しない)モニタのプリンタドライバ等を介して、ネットワーク内に存在するすべての情報処理装置の一覧表を提示する。
【0058】
(ステップ2)
ユーザは、モニタのプリンタドライバ等に提示された条件中で、適合する画像出力環境を選択する。この例を図11に示す。ネットワーク上に存在する情報処理装置、出力装置が提示されるので、ユーザAは情報処理装置Aに対応した名称Tamを指定する。なお、ここでの画像出力環境とは、ユーザが使用していた情報処理装置の名称やTCP/IPアドレス,クライアント名等をDNSサーバやプリンタサーバ等が保持するブロードキャストテーブル等より取得した情報である。
【0059】
(ステップ3)
選択した条件に応じた履歴情報を情報処理装置Bの取得手段20aが取得する。例えば、出力環境として情報処理装置A、および出力装置Aが選択された場合、情報処理装置Aで出力したユーザの代表色と出力枚数を履歴情報として取得する。以降は、実施例1の場合と同様であり、説明を省略する。
【0060】
以上の結果、ユーザAは情報処理装置A、情報処理装置Bのどちらにおいても、より好ましい画像を得ることが可能となる。また、プリンタサーバは、情報処理装置における画像入力機器および出力機器のプロファイルからその入出力特性を解析し、情報処理装置A、情報処理装置Bでより好ましい画像で、かつ色が一致した画像を提供することも可能である。
【0061】
本実施例によれば、ユーザの履歴情報が識別情報ごとに一元的に管理されており、かつ識別情報がネットワークアドレスまたはユーザ名のいずれかであるため、ユーザは出力装置および情報処理装置に関わらず、常に同じ補正処理を施した好ましい画像を得ることが可能となる。
【0062】
(実施例3)
実施例3に係る、第2のマハラノビス空間を構築する構築手段20cは、前記基準データ群と履歴情報とから第2のマハラノビス空間を構築する。すなわち、第1のマハラノビス空間の「基準データ群」の代表色と、ユーザの履歴情報における代表色との関係より、基準データ群の代表色を抽出する。次いで、両代表値間の色差が最小となる「基準データ群」の代表色を抽出する。次いで、ユーザの履歴情報における出力枚数と前記色差に応じて基準データ群のサンプル数を増加し、第2のマハラノビス空間を作成する。以下、その詳細を説明する。
【0063】
図12は、実施例3に係る、第2のマハラノビス空間作成方法を示す。本実施例では、sRGB環境を想定し、入力プロファイルに応じたLabに変換する。
【0064】
ユーザの履歴情報から出力画像データの代表値を取得する(ステップ301)。実施例では、(R,G,B)=(224,165,145)を取得し、これをLabに変換し、(L,a,b)=(73,21,19)を得る。
【0065】
第1のマハラノビス空間の基準データ群における元画像の代表色を取得する(ステップ303)。実施例では、(org_L,org_a,org_b)=(74,29,21)を取得する。このときのLab値は元画像のLab値である。
【0066】
上記ステップ301およびステップ303の相対距離(色差)を算出し、これを所定回数繰返す(ステップ302、304)。なお、色差のΔEは次式で算出する。
【数10】
Figure 0004189959
【0067】
ユーザの履歴情報における出力枚数と前ステップ304で算出された色差を一次的に記憶する(ステップ305)。
【0068】
ユーザの履歴情報の出力枚数に基づいて、基準データ群のサンプル数を更新する(ステップ306)。すなわち、色差と出力枚数の積を算出し、これを全体に対する比率(%)に変換する(図13を参照)。この比率に応じてポイント代表色を出力枚数だけ増加させる。本実施例の場合、比率が45:35:16:4であるので、これを「基準データ群」の比率に対応させて、図14を得る。そして、これを「更新基準データ群」とする。
【0069】
前記更新した「更新基準データ群」に基づき第2のマハラノビス空間を作成する(ステップ307)。
【0070】
第2のマハラノビス空間の行列要素の算出方法は、第1のマハラノビス空間、基準データ群を記憶する記憶手段20bで説明したマハラノビス空間生成方法と同様である。
【0071】
本実施例によれば、構築手段が、基準データ群における代表色と、履歴情報における代表色との相対距離を算出する算出手段と、該算出結果と履歴情報における出力枚数に応じて、基準データ群のサンプル数を変更する変更手段を有するため、出力枚数が少ない場合でも、より好ましい色補正を施すことが可能となる。
【0072】
なお、本発明は、上記した処理機能を実現するプログラムを記録した記録媒体をシステムや装置に供給し、システムや装置のコンピュータが記録媒体に記録されたプログラムを読み出し実行することによっても達成される。
【0073】
【発明の効果】
以上、説明したように、本発明によれば、ユーザの負担を低減しつつ、ユーザの好ましい画像に補正処理することができる。
【図面の簡単な説明】
【図1】従来の画像処理方法を説明する図である。
【図2】従来の色変換パラメータの例を示す。
【図3】本発明が適用される構成例を示す。
【図4】本発明の実施例の構成を示す。
【図5】履歴情報における入力画像データの代表値の例を示す。
【図6】履歴情報の例を示す。
【図7】基準データ群の例を示す。
【図8】本発明の実施例に係る第2のマハラノビス空間作成方法を示す。
【図9】更新後の基準データ群の例を示す。
【図10】マスキングパラメータ作成のフローチャートを示す。
【図11】画像出力環境を選択する例を示す。
【図12】実施例3に係る、第2のマハラノビス空間作成方法を示す。
【図13】実施例3において、色差と出力枚数の積を、全体に対する比率に変換した例を示す。
【図14】実施例3における更新後の基準データ群の例を示す。
【符号の説明】
10 画像入力手段
20 画像処理手段
20a 履歴情報取得手段
20b 基準データ群、マハラノビス空間記憶手段
20c マハラノビス空間構築手段
20d 色補正パラメータ算出手段
20e 色補正手段
30 画像出力手段[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus, an image processing method, a program, and a recording medium that perform correction processing suitable for a user's preference.
[0002]
[Prior art]
In color conversion from the RGB format to the CMYK format, the value of CMYK is calculated as a result of image processing finely adjusted according to the mechanical process conditions of the output device and the content of the output image. Since this color conversion method is stored as a predetermined conversion formula or conversion coefficient in the printing apparatus, the output image is uniformly subjected to image processing.
[0003]
However, the impression of the output color varies depending on the user and depends on personal preference. In particular, specific colors that are likely to remain in human memory, such as human skin color, sky blue, and green vegetation, which are called memory colors, are sensitive to the user's eyes and are easily affected by user differences. . For example, when the user's race (region), age, gender, and preference are different, the user's favorite reproduction color for each memory color is greatly different.
[0004]
Further, when the output device is shared by a plurality of users, it has been difficult to perform image processing that satisfies the requirements of all users who share the output device. For this reason, various techniques for outputting memory colors according to user preferences have been proposed.
[0005]
For example, using the color conversion characteristics describing the color reproduction characteristics of the input device and the output device, the user correction information, and the history information, the color correction parameter is corrected so that the predetermined colors of the input image and the output image match. Techniques have been proposed (see, for example, Patent Document 1). In Patent Document 1, so-called color matching image processing is performed to match predetermined colors of an input image and an output image even with respect to memory colors having greatly different user races (regions), ages, genders, and preferences. . This outline will be described with reference to FIG.
[0006]
FIG. 1 is a plot of the relationship of the output value P1 (o) with respect to a certain input value P0 (x) of the input image in a six-hue division plane area at a certain lightness. When the user corrects the input value (×) to the output value (◯), correction processing is performed so that the input value (×) is output as the output value (◯) based on the correction amount and the correction history. .
[0007]
However, as a result of diligent research by the present inventors, even when the color shift of the image is large, for a specific color, the output is corrected to the position corresponding to the output value P2 (◎) with respect to the input value of FIG. This is perceived as a more preferable image. In view of the fact that this specific color is conspicuous in colors related to human memory colors, and that the preferable image correction processing is in a specific correction direction, the present invention has been achieved.
[0008]
Further, there is a technique for storing a profile relating to color adjustment for each user and adjusting the color or density of an input image according to the user's profile (see, for example, Patent Document 2). In Patent Document 2, since the storage unit of the image processing apparatus holds a profile relating to the user's color, it is useful as a technique that allows each user to adjust the color to a preferable color for the input image. In the profile creation method for each user in Patent Document 2, the user adjusts the correction amount and creates a profile based on the adjusted correction amount. For example, in the case where the blueness of a certain input image is increased and output, the R′G′B ′ signal obtained by adjusting the RGB signal of the input image by the following equation (1) is used. The correction amount (α in the following equation) is stored as a profile.
R ′ = RxαR, G ′ = G, B ′ = B (1)
Here, α is an adjustment amount adjusted by the user.
However, in the above technique, the user adjusts the correction amount for a certain image A, and creates a profile PA including the correction amount αA. Next, the user adjusts the correction amount for an image B, and creates a profile PB including the correction amount αB. Further, the user adjusts the correction amount for a certain image C, and creates a profile PC including the correction amount αC. In this case, it is conceivable to create and store a plurality of profiles for each image. However, when the image X is input, it is necessary for the user to specify the profile PA, PB, PC, etc., and the burden on the user is large. .
[0010]
Furthermore, as the color correction parameters, the color correction parameters for each of the memory colors of skin color, grass green, and sky blue are stored in association with each other according to the skin color adjustment degree, and when the skin color is adjusted, the skin color, grass Since color correction parameters for other memory colors such as green and sky blue are also set, there is a technique in which a user can reproduce a favorite memory color with a small number of operations (see, for example, Patent Document 3). This is useful as a technique that can be adjusted to a favorite color while reducing the burden on the user in Patent Document 2 described above.
[0011]
According to the above technique, color conversion parameters for users classified by region, age, gender, etc. are prepared in advance, and color correction is performed according to this.
[0012]
FIG. 2 shows color correction parameters corresponding to the user and the illumination light. For example, when the user selects the skin color adjustment 1 in FIG. 2 as the degree of adjustment of the preferred skin color, the color that the user would prefer is reproduced in addition to the skin color, as well as the green of grass and the blue of the sky. Conversion parameters are set.
[0013]
[Patent Document 1]
JP 2000-4369 A [Patent Document 2]
Japanese Patent Laid-Open No. 2001-202221 [Patent Document 3]
JP 2001-298629 A
[Problems to be solved by the invention]
However, the degree of user preference correction is determined in advance by color correction parameters. Therefore, the user strongly corrects the correction amount related to one memory color and corrects the correction amount related to another memory color to be weak (for example, the flesh color correction parameter P11 in FIG. 2 is increased and the grass green color correction parameter P12 is increased). It is difficult to make it smaller. If a solution based on the above technique is tried, a large number of color conversion parameters are prepared for each user, which cannot be a fundamental solution to the problem.
[0015]
The present invention has been made in view of the above problems,
An object of the present invention is to provide an image processing apparatus, an image processing method, a program, and a recording medium that perform color conversion preferable for each user, reduce the burden on the user, and perform color correction processing suitable for the user's preference. is there.
[0016]
[Means for Solving the Problems]
The present invention provides a first storage means for storing user history information, a second storage means for storing a first multidimensional reference space based on a plurality of input / output relationships in advance, the history information and the reference space, Generating means for generating a second multidimensional reference space based on the above, selecting means for selecting the first or second multidimensional reference space, calculating means for calculating a color correction parameter based on the selection result, and One feature is that it includes a correction unit that performs color correction processing according to the calculation result, thereby enabling image processing that can correct the user's preferred image while reducing the burden on the user.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be specifically described below with reference to the drawings.
[0018]
(Example 1)
FIG. 3 shows a system configuration example to which the present invention is applied. In the apparatus configuration shown in FIG. 3, an information processing apparatus A, an information processing apparatus B, and an output apparatus A are connected via a network. Examples of the information processing apparatus include a personal computer, and examples of the output apparatus include devices such as a printer and a copying machine. The apparatus configuration to which the present invention is applied is not limited to the above-described example.
[0019]
FIG. 4 shows the configuration of an embodiment of the present invention. The image input unit 10 and the image processing unit 20 in FIG. 4 are mounted on the information processing apparatus A and the information processing apparatus B in FIG. 3, and the image output unit 30 corresponds to the output apparatus A.
[0020]
The input image data is input from the image input unit 10, corrected by the image processing unit 20, and then output by the image output unit 30. At this time, any color space can be applied as the color space. For example, a Lab perception space, a Luv perception space, a YCbCr space, and the like can be mentioned. In this embodiment, a case where the present invention is applied to a Lab perception space will be described.
[0021]
The image processing means 20 includes a history information acquisition means 20a for acquiring user history information, a storage means 20b for storing the first Mahalanobis space and its reference data group, and a second Mahalanobis from the reference data group and history information. Mahalanobis space construction means 20c for constructing a space, color correction parameter calculation means 20d for calculating a color correction parameter based on the second Mahalanobis space, and input image data based on the calculated color correction parameter And color correction means 20e for performing color correction.
[0022]
Hereinafter, each element constituting the image processing means 20 will be described in detail.
[0023]
The history information acquisition means 20a for acquiring user history information acquires an output history from output image data already output by the user. That is, a representative value of user output image data is calculated and stored as user history information together with the number of output images.
[0024]
A representative value calculation method for output image data and user history information will be described.
[0025]
The representative value of the output image data is plotted in a color space obtained by dividing the color information of one pixel of the output image data into predetermined regions, and the frequency distribution is calculated. A color related to the memory color at this time and having a high frequency distribution is set as a representative color. The stored color at this time is stored in advance as a predetermined color or color range, and it is determined whether or not the calculated representative color is included in the stored predetermined color or color range. This is possible. An example is shown in FIG. From the left of the figure, the RGB value of the input image data, the frequency, and whether or not the color corresponds to the memory color are stored. Here, the mode (R, G, B) = (224, 165, 145) which is a color related to the memory color and the frequency distribution is calculated as the representative color. In this embodiment, the mode value is used as the representative color of the input image data. However, it is possible to apply a value based on statistics such as an average value, a centroid value, and a kurtosis.
[0026]
The user history information is a representative value of the output image data and the number of output images. If this history information is managed and stored in a unified manner for each user, it is desirable that color correction processing described later according to the user can be performed. As user identification information, information such as TCP / IP, IPP, and NetBEUI, which are management information on the network, or a user name on the printer driver can be used. FIG. 6 shows an example, in which the user name acquired from the printer driver, the representative color of the input image data, and the number of output sheets are stored.
[0027]
The storage means 20b for storing the first Mahalanobis space and its reference data group stores a reference data group and a Mahalanobis space composed of the reference data group.
[0028]
The method of creating the reference data group will be described. A plurality of image samples are presented, and color correction processing is performed on the presented image samples so that a preferred color is felt. The first presented image is the original image, the image after color correction processing is the corrected image, and the obtained original image and the representative color of the corrected image are the reference data group.
[0029]
FIG. 7 shows an example of a reference data group, which is composed of Lab values (orgL, org_a, org_b) of the original image and Lab values (chg_L, chg_a, chg_b) of the corrected image. The representative color extraction method at this time plots the color information of one pixel of the image sample in a color space divided into predetermined areas, and calculates the frequency distribution. At this time, a color having a high frequency distribution and a color related to the memory color is set as a representative color (memory color), and a color not related to the memory color is set as a representative color (background color). A representative color (memory color) related to the memory color is set as a “reference data group”. In this embodiment, the mode value is used as the representative color of the image. However, it is possible to apply a value based on statistics such as an average value, a centroid value, and a kurtosis.
[0030]
A Mahalanobis space is created using the “reference data group”. The calculation method at this time is as follows.
1. Normalization of “reference data group” The Lab values of the original image and the corrected image are used as reference data. That is, for each variable of org_L, org_b, org_b, chg_L, chg_a, and chg_b, the average and standard deviation are calculated, and the data is normalized according to the following equation (2).
[0031]
[Expression 1]
Figure 0004189959
At this time, Y, i, and j are a variable, the number of variables, and the number of samples, respectively.
[0032]
2. Calculation of correlation coefficient matrix between variables The correlation coefficient between each variable is calculated. That is, the correlation coefficient is calculated by the following equation (3) for the combination in which two are extracted from all the variables.
[Expression 2]
Figure 0004189959
At this time, r is a correlation coefficient, and p and q are variables.
[0033]
3. Creation of Correlation Matrix A correlation matrix R is created with diagonal elements set to 1 and other elements in p rows and q columns set to rpq.
[Equation 3]
Figure 0004189959
[0034]
4). Calculation of inverse matrix of correlation matrix Calculate inverse matrix matA of correlation matrix R
Figure 0004189959
[0035]
5. Creation of “Mahalanobis space” The correlation matrix matA created as described above is referred to as a “Mahalanobis space”.
[0036]
The construction means 20c for constructing the second Mahalanobis space constructs the second Mahalanobis space from the reference data group and the history information.
[0037]
In the second Mahalanobis space creation method, first, the representative color of the reference data group is extracted from the relationship between the representative color of the “reference data group” in the first Mahalanobis space and the representative color in the user history information. Next, the representative color of the “reference data group” that minimizes the color difference between the two representative values is extracted. Then, the number of samples of the “reference data group” is increased in accordance with the number of output sheets in the user history information to create an “update reference data group”, and then the second Mahalanobis reference space is created based on this. Details will be described below.
[0038]
FIG. 8 shows a second Mahalanobis space creation method according to an embodiment of the present invention. In the present embodiment, an sRGB environment is assumed and converted to Lab according to the input profile.
[0039]
A representative value of the output image data is acquired from the user history information (step 101). In the embodiment, (R, G, B) = (224, 165, 145) is acquired and converted into Lab to obtain (L, a, b) = (73, 21, 19).
[0040]
Next, the representative color of the original image in the reference data group of the first Mahalanobis space is acquired (step 103). In the embodiment, (org_L, org_a, org_b) = (74, 29, 21) is acquired.
[0041]
Next, the relative distance (color difference) between the user representative color acquired in step 101 and the representative color of the original image in the reference data group acquired in step 103 is calculated, and this is repeated a predetermined number of times (steps 102 and 104). The color difference ΔE is calculated by the following equation.
[Equation 5]
Figure 0004189959
[0042]
Subsequently, a representative color of the reference data group in the first Mahalanobis space that minimizes the color difference is extracted (step 105). In the embodiment, the first representative color of the reference data group is extracted. That is, (org_L, org_a, org_b, chg_L, chg_a, and chg_b) = (74, 29, 21, 83, 20, 24) is extracted.
[0043]
Subsequently, the number of samples in the reference data group is updated based on the number of output user history information (step 106). In the embodiment, the reference data group is updated as shown in FIG. That is, the first-th representative color is increased by the number of output sheets, to create a "update reference data group".
[0044]
Finally, a second Mahalanobis space is created based on the “update reference data group” (step 107). The calculation method of the matrix elements of the second Mahalanobis space is the same as the Mahalanobis space generation method described in the storage means 20b for storing the first Mahalanobis space and the reference data group.
[0045]
The color correction parameter calculation unit 20d calculates a relative distance between the input value and the output value based on the second Mahalanobis space, and a second calculation that calculates a color correction parameter that minimizes the relative distance. Means. Since an actual color correction method is determined in consideration of the processing method, memory capacity, or conversion accuracy, various known color conversion methods can be applied.
[0046]
As an application example of this embodiment, a method for calculating a masking parameter divided into six hues will be described. Note that the masking parameter is a coefficient of a color correction coefficient corresponding to each divided color space obtained by dividing the color space by a plane extending radially around the achromatic color axis.
[0047]
FIG. 10 shows a flowchart for creating a masking parameter. A color division space divided by six hues is selected (step 201). This is a color division space surrounded by two fixed control points Black (FFF) and White (000) and two control points P1 (P1R, P1G, P1B) and P2 (P2R, P2G, P2B). For example, P1 (F00), P2 (FF0), Bk (FFF), and W (000) are selected as the color division space close to the skin color of the memory color.
[0048]
The Mahalanobis distance when the input Lab values of the “update reference data group” are in_L, in_b, in_b and the corrected Lab values are out_L, out_a, out_b is calculated by the following equation (7) (step 203).
[Formula 6]
Figure 0004189959
The input Lab values are in_L, in_a, in_b,
The average of the input Lab values is in_Lave, in_ave, in_bave
Output Lab values are out_L, out_a, out_b
The average of the output Lab values is out_Lave, out_ave, out_bavematA is the second Mahalanobis reference space,
[Expression 7]
Figure 0004189959
Is a transposed matrix of the matrix Y.
[0049]
A masking parameter that minimizes the Mahalanobis distance is calculated (step 204). The masking parameters are elements P11, P12, P13, P21, P22, P23, P31, P32, and P33 that satisfy the relationship of Expression (8). At this time, various optimization methods can be applied to the calculation of the minimum value, but in this example, the Powell method was applied to obtain the masking parameter shown in Expression (9).
[Equation 8]
Figure 0004189959
[0050]
The masking parameters are calculated in the divided color space, and trials are repeated a predetermined number of times to obtain masking parameters (step 202). That is, in this embodiment in which the RGB color space is divided into six hue planes of Red, Green, Blue, Cyan, Magenta, and Yellow, the hues on the six hue space are R (F00), G (0F0), Masking parameters are calculated for each of the two control points in B (00F), C (0FF), M (F0F), and Y (FF0).
[0051]
The color correction unit 20e and the image output unit 30 are a conversion unit that converts the input image data into a color signal unique to the output device based on the masking parameter, and an output unit that outputs the image data based on the obtained output value. It consists of. That is, after color correction is performed on the input image data based on the calculated masking parameter, the obtained output value is converted into a color signal unique to the output device, and the output signal is output by the output device. . At this time, the input image data (RGB data) is subjected to the above-described processing (out_R, out_G, and out_B), and then the color signal (Y, M, C, Bk) specific to the output device according to the following expression (10): ). In this embodiment, matrix conversion is used as a color conversion method, but a memory map method, a memory map interpolation method, or the like can also be used.
[0052]
[Equation 9]
Figure 0004189959
[0053]
According to the first embodiment, an image that has been subjected to a correction process more suitable for the user's preference is obtained.
[0054]
(Example 2)
A second embodiment will be described with reference to FIG. The apparatus configuration to which the present embodiment is applied is not limited to FIG. Here, it is assumed that a certain user A outputs an image from the information processing apparatus A at any time, and then outputs an image from a different information processing apparatus B. Of course, the output tendency of the information processing apparatus B is different from the output tendency from the information processing apparatus A. At this time, it is possible to obtain an image preferred by the user A by the information processing apparatus B by performing the following steps.
[0055]
That is, the acquisition unit 20a that acquires user history information acquires the user output history from the information processing apparatus A, performs color correction processing based on the acquired information, and outputs input image data. The details will be described below.
[0056]
The acquisition unit 20a in the information processing apparatus B acquires the history information of the output apparatus A, and acquires the representative value of the output image data of the user A, the number of output sheets, and the like according to the following steps.
[0057]
(Step 1)
The information processing apparatus B presents a list of all information processing apparatuses existing in the network via a printer driver (not shown) or the like immediately before the image data is output from the information processing apparatus B.
[0058]
(Step 2)
The user selects a suitable image output environment in the conditions presented to the printer driver of the monitor. An example of this is shown in FIG. Since an information processing apparatus and an output apparatus existing on the network are presented, the user A designates a name Tam corresponding to the information processing apparatus A. The image output environment here is information obtained from a broadcast table or the like held by a DNS server, a printer server, or the like such as the name, TCP / IP address, and client name of the information processing apparatus used by the user. .
[0059]
(Step 3)
The acquisition unit 20a of the information processing apparatus B acquires history information corresponding to the selected condition. For example, when the information processing apparatus A and the output apparatus A are selected as the output environment, the representative color of the user and the number of output sheets output by the information processing apparatus A are acquired as history information. The subsequent steps are the same as in the case of the first embodiment, and description thereof is omitted.
[0060]
As a result, the user A can obtain a more preferable image in either the information processing apparatus A or the information processing apparatus B. In addition, the printer server analyzes input / output characteristics from the profiles of the image input device and output device in the information processing device, and provides a more preferable image and a matching color image in the information processing device A and the information processing device B. It is also possible to do.
[0061]
According to the present embodiment, since the user history information is centrally managed for each identification information and the identification information is either a network address or a user name, the user is related to the output device and the information processing device. Therefore, it is possible to obtain a preferable image always subjected to the same correction processing.
[0062]
(Example 3)
The construction means 20c for constructing the second Mahalanobis space according to the third embodiment constructs the second Mahalanobis space from the reference data group and the history information. That is, the representative color of the reference data group is extracted from the relationship between the representative color of the “reference data group” in the first Mahalanobis space and the representative color in the user history information. Next, the representative color of the “reference data group” that minimizes the color difference between the two representative values is extracted. Next, the second Mahalanobis space is created by increasing the number of samples of the reference data group according to the number of output sheets and the color difference in the user history information. Details will be described below.
[0063]
FIG. 12 shows a second Mahalanobis space creation method according to the third embodiment. In the present embodiment, an sRGB environment is assumed and converted to Lab according to the input profile.
[0064]
A representative value of the output image data is acquired from the user history information (step 301). In the embodiment, (R, G, B) = (224, 165, 145) is acquired and converted into Lab to obtain (L, a, b) = (73, 21, 19).
[0065]
A representative color of the original image in the reference data group of the first Mahalanobis space is acquired (step 303). In the embodiment, (org_L, org_a, org_b) = (74, 29, 21) is acquired. The Lab value at this time is the Lab value of the original image.
[0066]
The relative distance (color difference) between step 301 and step 303 is calculated, and this is repeated a predetermined number of times (steps 302 and 304). The color difference ΔE is calculated by the following equation.
[Expression 10]
Figure 0004189959
[0067]
The number of output sheets in the user history information and the color difference calculated in the previous step 304 are temporarily stored (step 305).
[0068]
The number of samples in the reference data group is updated based on the number of output user history information (step 306). That is, the product of the color difference and the number of output sheets is calculated and converted into a ratio (%) to the whole (see FIG. 13). The point representative color is increased by the number of output sheets according to this ratio. In the case of the present embodiment, the ratio is 45: 35: 16: 4. Therefore, this is made to correspond to the ratio of the “reference data group” to obtain FIG. This is referred to as an “update reference data group”.
[0069]
A second Mahalanobis space is created based on the updated “update reference data group” (step 307).
[0070]
The matrix element calculation method of the second Mahalanobis space is the same as the Mahalanobis space generation method described in the first Mahalanobis space and the storage unit 20b that stores the reference data group.
[0071]
According to this embodiment, the construction means calculates the relative distance between the representative color in the reference data group and the representative color in the history information, and the reference data according to the calculation result and the number of output sheets in the history information. Since the changing means for changing the number of samples in the group is provided, even when the number of output sheets is small, more preferable color correction can be performed.
[0072]
The present invention can also be achieved by supplying a recording medium recording a program for realizing the processing functions described above to a system or apparatus, and reading and executing the program recorded on the recording medium by a computer of the system or apparatus. .
[0073]
【The invention's effect】
As described above, according to the present invention, it is possible to correct a user's preferable image while reducing the burden on the user.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a conventional image processing method.
FIG. 2 shows an example of a conventional color conversion parameter.
FIG. 3 shows a configuration example to which the present invention is applied.
FIG. 4 shows a configuration of an embodiment of the present invention.
FIG. 5 shows an example of representative values of input image data in history information.
FIG. 6 shows an example of history information.
FIG. 7 shows an example of a reference data group.
FIG. 8 shows a second Mahalanobis space creation method according to an embodiment of the present invention.
FIG. 9 shows an example of the updated reference data group.
FIG. 10 shows a flowchart for creating a masking parameter.
FIG. 11 shows an example of selecting an image output environment.
12 shows a second Mahalanobis space creation method according to Embodiment 3. FIG.
FIG. 13 shows an example in which the product of the color difference and the number of output sheets is converted into a ratio to the whole in the third embodiment.
FIG. 14 shows an example of the updated reference data group in the third embodiment.
[Explanation of symbols]
10 Image input means 20 Image processing means 20a History information acquisition means 20b Reference data group, Mahalanobis space storage means 20c Mahalanobis space construction means 20d Color correction parameter calculation means 20e Color correction means 30 Image output means

Claims (5)

入力画像に対してユーザの好みに適した補正処理を施す画像処理装置であって、複数のサンプル画像データに対して、好ましい色に感じるように色補正処理を行い、色補正前サンプル画像データと色補正後サンプル画像データとのそれぞれについて、前記サンプル画像データ中の記憶色に関わる画素の色情報の統計量に基づいた値(以下、代表色)を算出し、該算出された代表色のデータの組から成る基準データ群と、該基準データ群に基づいて算出された相関行列の逆行列である第1のマハラノビス空間とを記憶する記憶手段と、
ユーザの出力履歴情報から得られる出力済の出力画像データについて代表色を算出し、該算出された出力画像データの代表色と、前記出力画像データの出力枚数とを履歴情報としてユーザごとに記憶するユーザ履歴情報記憶手段と、
前記第1のマハラノビス空間の基準データ群における代表色と、ユーザの前記履歴情報における代表色との相対距離を算出し、該算出された相対距離のうち最小の値をとる前記第1のマハラノビス空間の基準データ群における代表色を抽出し、該代表色を有する前記基準データ群のデータの組について、前記出力枚数に応じて前記データの組の数を増加させて更新基準データ群を生成し、該生成された更新基準データ群に基づいて相関行列の逆行列である第2のマハラノビス空間を構築するマハラノビス空間構築手段と、
該第2のマハラノビス空間に基づいて、前記更新基準データ群が有する前記色補正前サンプル画像データの代表色と前記色補正後のサンプル画像データの代表色との相対距離を算出し、該算出された相対距離を最小とする色補正の変数パラメータを算出する色補正パラメータ算出手段と、
前記変数パラメータに基づいて前記入力画像データを色信号へ変換する色補正手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus that performs correction processing suitable for a user's preference on an input image, performs color correction processing on a plurality of sample image data so as to feel a preferable color, For each of the sample image data after color correction, a value (hereinafter referred to as a representative color) based on a statistic of pixel color information relating to the memory color in the sample image data is calculated, and the calculated representative color data Storage means for storing a reference data group consisting of a set of and a first Mahalanobis space that is an inverse matrix of a correlation matrix calculated based on the reference data group;
A representative color is calculated for output image data that has been output obtained from user output history information, and the calculated representative color of the output image data and the number of output image data are stored for each user as history information. User history information storage means;
A representative color in the reference data group of the first Mahalanobis space, calculates the relative distance between the representative color in the history information of the user, the first Mahalanobis space that takes the smallest value among the relative distances issued the calculated A representative color in the reference data group, and for the data set of the reference data group having the representative color, an update reference data group is generated by increasing the number of the data sets according to the number of output sheets, Mahalanobis space construction means for constructing a second Mahalanobis space that is an inverse matrix of a correlation matrix based on the generated update reference data group;
Based on the second Mahalanobis space, the relative distance between the representative color of the sample image data before color correction and the representative color of the sample image data after color correction that the update reference data group has is calculated. Color correction parameter calculation means for calculating a variable parameter for color correction that minimizes the relative distance;
Color correction means for converting the input image data into color signals based on the variable parameters;
An image processing apparatus comprising:
前記ユーザの履歴情報は、ネットワークアドレスまたはユーザ名のいずれかの識別情報によって一元的に管理されることを特徴とする請求項1記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the user history information is centrally managed by identification information of either a network address or a user name. 入力画像に対してユーザの好みに適した補正処理を施す画像処理方法であって、複数のサンプル画像データに対して、好ましい色に感じるように色補正処理を行い、色補正前サンプル画像データと色補正後サンプル画像データとのそれぞれについて、前記サンプル画像データ中の記憶色に関わる画素の色情報の統計量に基づいた値(以下、代表色)を算出し、該算出された代表色のデータの組から成る基準データ群と、該基準データ群に基づいて算出された相関行列の逆行列である第1のマハラノビス空間とを記憶する記憶ステップと、
ユーザの出力履歴情報から得られる出力済の出力画像データについて代表色を算出し、該算出された出力画像データの代表色と、前記出力画像データの出力枚数とを履歴情報としてユーザごとに記憶するユーザ履歴情報記憶ステップと、
前記第1のマハラノビス空間の基準データ群における代表色と、ユーザの前記履歴情報における代表色との相対距離を算出し、該算出された相対距離のうち最小の値をとる前記第1のマハラノビス空間の基準データ群における代表色を抽出し、該代表色を有する前記基準データ群のデータの組について、前記出力枚数に応じて前記データの組の数を増加させて更新基準データ群を生成し、該生成された更新基準データ群に基づいて相関行列の逆行列である第2のマハラノビス空間を構築するマハラノビス空間構築ステップと、
該第2のマハラノビス空間に基づいて、前記更新基準データ群が有する前記色補正前サンプル画像データの代表色と前記色補正後のサンプル画像データの代表色との相対距離を算出し、該算出された相対距離を最小とする色補正の変数パラメータを算出する色補正パラメータ算出ステップと、
前記変数パラメータに基づいて前記入力画像データを色信号へ変換する色補正ステップと、
を備えることを特徴とする画像処理方法。
An image processing method for performing correction processing suitable for a user's preference on an input image, performing color correction processing on a plurality of sample image data so as to feel a preferable color, For each of the sample image data after color correction, a value (hereinafter referred to as a representative color) based on a statistic of pixel color information relating to the memory color in the sample image data is calculated, and the calculated representative color data A storage step of storing a reference data group consisting of a set of and a first Mahalanobis space that is an inverse matrix of a correlation matrix calculated based on the reference data group;
A representative color is calculated for output image data that has been output obtained from user output history information, and the calculated representative color of the output image data and the number of output image data are stored for each user as history information. A user history information storage step;
A representative color in the reference data group of the first Mahalanobis space, calculates the relative distance between the representative color in the history information of the user, the first Mahalanobis space that takes the smallest value among the relative distances issued the calculated A representative color in the reference data group, and for the data set of the reference data group having the representative color, an update reference data group is generated by increasing the number of the data sets according to the number of output sheets, A Mahalanobis space construction step of constructing a second Mahalanobis space that is an inverse matrix of a correlation matrix based on the generated update reference data group;
Based on the second Mahalanobis space, the relative distance between the representative color of the sample image data before color correction and the representative color of the sample image data after color correction that the update reference data group has is calculated. A color correction parameter calculating step for calculating a variable parameter for color correction that minimizes the relative distance;
A color correction step of converting the input image data into color signals based on the variable parameters;
An image processing method comprising:
請求項3記載の画像処理方法の各ステップをコンピュータに実行させるためのプログラム。  A program for causing a computer to execute each step of the image processing method according to claim 3. 請求項3記載の画像処理方法の各ステップをコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。  A computer-readable recording medium on which a program for causing a computer to execute each step of the image processing method according to claim 3 is recorded.
JP2003136712A 2003-05-15 2003-05-15 Image processing apparatus, image processing method, program, and recording medium Expired - Fee Related JP4189959B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003136712A JP4189959B2 (en) 2003-05-15 2003-05-15 Image processing apparatus, image processing method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003136712A JP4189959B2 (en) 2003-05-15 2003-05-15 Image processing apparatus, image processing method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2004343365A JP2004343365A (en) 2004-12-02
JP4189959B2 true JP4189959B2 (en) 2008-12-03

Family

ID=33526562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003136712A Expired - Fee Related JP4189959B2 (en) 2003-05-15 2003-05-15 Image processing apparatus, image processing method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP4189959B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103129126A (en) * 2011-11-21 2013-06-05 精工爱普生株式会社 Printing apparatus and printing method

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4793356B2 (en) 2007-08-31 2011-10-12 ブラザー工業株式会社 Image processing apparatus and image processing program
US8159716B2 (en) 2007-08-31 2012-04-17 Brother Kogyo Kabushiki Kaisha Image processing device performing image correction by using a plurality of sample images
JP4433017B2 (en) 2007-08-31 2010-03-17 ブラザー工業株式会社 Image processing apparatus and image processing program
US8094343B2 (en) 2007-08-31 2012-01-10 Brother Kogyo Kabushiki Kaisha Image processor
JP4442664B2 (en) 2007-08-31 2010-03-31 ブラザー工業株式会社 Image processing apparatus, image processing method, and image processing program
US8174731B2 (en) 2007-08-31 2012-05-08 Brother Kogyo Kabushiki Kaisha Image processing device outputting image for selecting sample image for image correction
US10648888B2 (en) 2008-02-27 2020-05-12 Mitsubishi Hitachi Power Systems, Ltd. Plant state monitoring method, plant state monitoring computer program, and plant state monitoring apparatus
JP6915483B2 (en) * 2017-09-27 2021-08-04 富士フイルムビジネスイノベーション株式会社 Image processing equipment, image processing systems and programs
JP6915482B2 (en) * 2017-09-27 2021-08-04 富士フイルムビジネスイノベーション株式会社 Image processing equipment, image processing systems and programs

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103129126A (en) * 2011-11-21 2013-06-05 精工爱普生株式会社 Printing apparatus and printing method
CN103129126B (en) * 2011-11-21 2016-12-07 精工爱普生株式会社 Printing equipment and printing process

Also Published As

Publication number Publication date
JP2004343365A (en) 2004-12-02

Similar Documents

Publication Publication Date Title
EP1590953B1 (en) Color conversion method and profile generation method
US6650771B1 (en) Color management system incorporating parameter control channels
JP3820835B2 (en) COLOR CORRECTION DEVICE, RECORDING MEDIUM, RECORDING DEVICE, AND COLOR CORRECTION METHOD
JP2009055465A (en) Image processing device and method
JPH0787347A (en) Method and device for processing color picture
CN101582977A (en) Color management apparatus and color management method
JP4536431B2 (en) Method and system for controlling a color output device
US20090207455A1 (en) Image processing according to image output mode
JP4189959B2 (en) Image processing apparatus, image processing method, program, and recording medium
US7064860B1 (en) Color-balanced TRC correction to compensate for illuminant changes in printer characterization
US20050052668A1 (en) Color adjusting method, program and program-recorded medium
JP3876650B2 (en) Color correction parameter calculation device, image color correction device, color correction parameter calculation method used therefor, and program thereof
JP4218165B2 (en) Image data conversion processing method and recording medium recording image data conversion processing program
US20100156929A1 (en) Ridge-based color gamut mapping
US20050068587A1 (en) Monotone conversion process for color images
US20080170249A1 (en) Method for setting color conversion condition for use in image forming device, and image forming device
JP3952081B2 (en) Image color correction parameter calculation system, color correction method, and color correction apparatus
US20060072130A1 (en) Method and system using gamut mapping templates to derive actual color gamut mapping
EP1859613B1 (en) Apparatus and method for generating catalog image and program therefor
JP2006270517A (en) Method and system for processing image
JP3145878B2 (en) Color conversion method
JP2010251940A (en) Image processor, image processing method, and program
JP2007288495A (en) Color separating method, color separation table creating method and image processing apparatus
JP2004064111A (en) Color processing apparatus and method therefor
JP2005175875A (en) Color correction device, color correction method, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080521

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080910

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080911

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110926

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120926

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130926

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees