JP6446898B2 - Image processing apparatus, image forming apparatus, image processing method, and program thereof - Google Patents
Image processing apparatus, image forming apparatus, image processing method, and program thereof Download PDFInfo
- Publication number
- JP6446898B2 JP6446898B2 JP2014159895A JP2014159895A JP6446898B2 JP 6446898 B2 JP6446898 B2 JP 6446898B2 JP 2014159895 A JP2014159895 A JP 2014159895A JP 2014159895 A JP2014159895 A JP 2014159895A JP 6446898 B2 JP6446898 B2 JP 6446898B2
- Authority
- JP
- Japan
- Prior art keywords
- color
- value
- output
- grid point
- color gamut
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Record Information Processing For Printing (AREA)
- Color, Gradation (AREA)
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Description
本発明は、画像処理装置、画像形成装置、画像処理方法、及びそのプログラムに関する。 The present invention relates to an image processing apparatus, an image forming apparatus, an image processing method, and a program thereof.
カラーマネジメントシステムにおいて、色変換に用いる業界標準のデータフォーマットとしてICC(International Color Consortium)プロファイルがある。ICCプロファイルを用いた色変換では、まず、スキャナやデジタルカメラなどの入力デバイスからの入力画像信号を、入力デバイスのプロファイル(入力プロファイル)を用いてデバイス非依存信号に変換する。それから、そのデバイス非依存信号を、出力デバイスのプロファイル(出力プロファイル)を用いて出力画像信号へと変換する。プリンタや複合機等の出力デバイスでは、この出力画像信号に基づいて出力を行うことになる。 In the color management system, there is an ICC (International Color Consortium) profile as an industry standard data format used for color conversion. In color conversion using an ICC profile, first, an input image signal from an input device such as a scanner or a digital camera is converted into a device-independent signal using an input device profile (input profile). Then, the device-independent signal is converted into an output image signal using an output device profile (output profile). An output device such as a printer or a multifunction peripheral performs output based on the output image signal.
ここで、ある出力デバイス用の出力画像信号への変換は、例えば、ICCのSpecification ICC.1:2010(Profile version 4.3.0.0)のFigure 2 d)に示される変換方法によって行われる。この変換方法で用いられているCLUTの格子点は、L*a*b*色空間全域(0≦L*≦100,−128≦a*≦127,−128≦b*≦127)、もしくはXYZ色空間全域(0≦X≦1.0,0≦Y≦1.0,0≦Z≦1.0)について、均等に配置されている。このため実存する入出力デバイスで再現可能な色域内にある格子点数が少なく、色再現の精度が悪いという問題があった。そこで、良好な色再現を実現するために、CLUT等の出力プロファイル用のLUTで用いる格子点の配置を調整する技術が既に知られている。 Here, conversion to an output image signal for an output device is performed by, for example, ICC Specification ICC. 1: 2010 (Profile version 4.3.0.0), FIG. 2 d). The lattice points of the CLUT used in this conversion method are the entire L * a * b * color space (0 ≦ L * ≦ 100, −128 ≦ a * ≦ 127, −128 ≦ b * ≦ 127), or XYZ The entire color space (0 ≦ X ≦ 1.0, 0 ≦ Y ≦ 1.0, 0 ≦ Z ≦ 1.0) is arranged uniformly. For this reason, there is a problem that the number of grid points in the color gamut that can be reproduced by an existing input / output device is small, and the color reproduction accuracy is poor. Therefore, in order to realize good color reproduction, a technique for adjusting the arrangement of grid points used in an output profile LUT such as a CLUT is already known.
特許文献1には、複数の光源でも色再現が良好なカラー画像処理方法を提供する目的で、LUTの色彩信号の色空間におけるグリッド点(格子点)の座標データと、所定の色のカラーパッチを測色して得られた測定データを取得し、グリッド点の座標を非線形に変換して、グリッド点の座標に対応するデバイス信号(出力画像信号)の座標を生成し、新たなLUTを形成するようにした構成が開示されている。この特許文献1に開示のものは、その特徴の1つとして、測定データから得られる色域内に含まれるグリッド点については、色域内のグリッド点の座標と測定データを用いて所定の補間処理を行い、色域内に含まれるグリッド点の座標に対応するデバイス信号の座標を生成し、色域内に含まれないグリッド点については、所定の色域圧縮処理を行い、色域内に含まれないグリッド点の座標に対応するデバイス信号の座標を生成するようにすることで、上記目的を達成している。 Patent Document 1 discloses coordinate data of grid points (lattice points) in a color space of a color signal of an LUT and a color patch of a predetermined color for the purpose of providing a color image processing method with good color reproduction even with a plurality of light sources. The measurement data obtained by measuring colors is acquired, the coordinates of the grid points are converted into non-linearity, the coordinates of the device signal (output image signal) corresponding to the coordinates of the grid points are generated, and a new LUT is formed The structure made to do is disclosed. As disclosed in this patent document 1, as one of its features, for a grid point included in a color gamut obtained from measurement data, a predetermined interpolation process is performed using the coordinates of the grid point in the color gamut and the measurement data. To generate device signal coordinates corresponding to the coordinates of the grid points included in the color gamut. For grid points that are not included in the color gamut, a predetermined color gamut compression process is performed, and grid points that are not included in the color gamut. The above object is achieved by generating the coordinates of the device signal corresponding to the coordinates.
しかしながら、上記のような格子点の配置を調整する今までの方法では、出力デバイスの色域の内部の格子点を増やすことで、グレーバランスや無彩色軸付近の色の変換精度は向上できていたが、色域端部の色再現について考慮されていなかった。つまり、従来の方法では、色域端部に格子点が配置されないことで、色域圧縮後の格子点の配置が色域端部を削るような配置となってしまい、色域端部における色再現精度が悪くなってしまうという問題があった。 However, with the conventional methods for adjusting the arrangement of the grid points as described above, the conversion accuracy of the color near the gray balance and the achromatic color axis can be improved by increasing the grid points inside the color gamut of the output device. However, the color reproduction at the end of the color gamut was not considered. In other words, in the conventional method, since the grid points are not arranged at the end of the gamut, the arrangement of the grid points after the color gamut compression is arranged so as to cut the end of the gamut, and the color at the end of the gamut There was a problem that the reproducibility deteriorated.
本発明は、上記に鑑みてなされたものであって、出力デバイスの色域端部においても良好な色再現が可能な画像処理装置、画像形成装置、画像処理方法、及びそのプログラムを提供することを目的とする。 The present invention has been made in view of the above, and provides an image processing apparatus, an image forming apparatus, an image processing method, and a program thereof that can perform good color reproduction even at the end of the color gamut of an output device. With the goal.
上述した課題を解決し、目的を達成するために、本発明は、出力デバイスの色域の情報から色域端部の特徴点の色値を取得し、デバイス非依存の色空間内の点の色値を出力デバイスの色域内の対応する点の色値に変換するための出力プロファイルの、前記変換に用いる変換テーブルの出力値が前記色域端部の特徴点の色値を持つように、前記出力プロファイルを生成する生成部、を備え、前記生成部は、デバイス非依存の第1色空間における階調数に応じた入力値と出力値の関係を定めた第1テーブルと、前記出力プロファイルの変換テーブルに含まれる前記第1色空間における格子点に関する情報を取得する格子点情報取得部と、前記出力デバイスの色域に対応する、前記第1色空間における色域の情報を取得する出力色域情報取得部と、前記格子点情報取得部で取得した格子点の情報と、前記出力色域情報取得部で取得した前記色域の情報とを基に、前記出力デバイスの色域の少なくとも一次色、二次色のいずれかを含む前記出力デバイスの色域端部の特徴点に対応する前記第1色空間における特徴点の色値を出力値とし、該第1色空間における特徴点に最も近い格子点の色値を入力値とした、前記入力値と前記出力値の関係を前記第1テーブルに設定するテーブル生成部と、前記格子点情報取得部で取得した格子点に関する情報が示す各格子点の色値を、前記テーブル生成部で生成した第1テーブルの入力値の中で、変換対象の格子点の色値を挟む入力値に対応する出力値を用いて変換する格子点変換部と、前記格子点変換部で変換した各格子点を前記出力デバイスの色域内に配置させる色域圧縮を行う色域圧縮部と、前記色域圧縮部で色域圧縮された各格子点の第1色空間における色値を、前記出力デバイスに依存する第2色空間の色値に変換する色空間変換部と、前記格子点情報取得部で取得した格子点に関する情報が示す各格子点と前記色空間変換部で得られた各格子点に対応する前記第2色空間での色値とを対応付けた変換テーブルを含めた前記出力プロファイルを生成するプロファイル生成部と、を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention obtains the color value of the feature point at the end of the color gamut from the information on the color gamut of the output device , and calculates the point of the point in the device-independent color space. In the output profile for converting the color value to the color value of the corresponding point in the color gamut of the output device, so that the output value of the conversion table used for the conversion has the color value of the feature point at the end of the color gamut. A first table defining a relationship between input values and output values according to the number of gradations in a device-independent first color space; and the output profile. A grid point information acquisition unit that acquires information about grid points in the first color space included in the conversion table, and an output that acquires information on the color gamut in the first color space corresponding to the color gamut of the output device. A color gamut information acquisition unit; Based on the grid point information acquired by the grid point information acquisition unit and the color gamut information acquired by the output color gamut information acquisition unit, at least a primary color and a secondary color of the color gamut of the output device The color value of the feature point in the first color space corresponding to the feature point at the end of the color gamut of the output device including any of the output devices is used as the output value, and the color value of the lattice point closest to the feature point in the first color space The table generation unit that sets the relationship between the input value and the output value in the first table, and the color value of each grid point indicated by the information about the grid point acquired by the grid point information acquisition unit A grid point conversion unit that converts an output value corresponding to an input value sandwiching a color value of a grid point to be converted among the input values of the first table generated by the table generation unit; and the grid point conversion Each grid point converted by the unit within the color gamut of the output device A color gamut compression unit that performs color gamut compression to be arranged, and a color value in the first color space of each lattice point that has been color gamut compressed by the color gamut compression unit, and a color value in a second color space that depends on the output device A color space conversion unit for converting to the grid point, each grid point indicated by the information about the grid point acquired by the grid point information acquisition unit, and the second color space corresponding to each grid point obtained by the color space conversion unit. A profile generation unit that generates the output profile including a conversion table in which color values are associated with each other.
本発明によれば、出力プロファイルを用いる出力デバイスにおいて、その色域端部においても良好な色再現が可能となる。 According to the present invention, in an output device using an output profile, good color reproduction can be achieved even at the end of the color gamut.
以下に添付図面を参照して、画像処理装置、画像形成装置、画像処理方法、及びそのプログラムの実施形態を詳細に説明する。 Hereinafter, embodiments of an image processing apparatus, an image forming apparatus, an image processing method, and a program thereof will be described in detail with reference to the accompanying drawings.
(第1の実施形態)
図1は、本実施形態の画像処理装置を含むシステム構成例を示すブロック図である。本システムは、画像入力装置10、画像処理装置20、および画像出力装置30を備えている。本実施形態の画像処理装置20は、図2に示す色変換で用いる、出力プロファイルを作成するものである。
(First embodiment)
FIG. 1 is a block diagram illustrating a system configuration example including an image processing apparatus according to the present embodiment. The system includes an image input device 10, an image processing device 20, and an image output device 30. The image processing apparatus 20 according to the present embodiment creates an output profile used in the color conversion shown in FIG.
なお、図1の例では画像入力装置10、画像処理装置20、および画像出力装置30をそれぞれ別体として示しているが、これらを一体化した、例えば、複合機(MFP(Multi Function Printer))のような構成であってもよい。複合機は、コピー、プリンタ、スキャナ、ファクシミリなどの複数の画像処理機能を備える装置である。画像入力装置10は、カラースキャナ、デジタルカメラ、パーソナルコンピュータ(PC)などカラー画像データを画像処理装置20側へ入力する装置であり、画像出力装置30は、プリンタ、各種ディスプレイ、プロジェクタなどのカラー画像を出力する装置である。 In the example of FIG. 1, the image input device 10, the image processing device 20, and the image output device 30 are shown as separate bodies, but these are integrated, for example, a multifunction device (MFP (Multi Function Printer)). It may be configured as follows. A multifunction peripheral is an apparatus having a plurality of image processing functions such as a copy, a printer, a scanner, and a facsimile. The image input device 10 is a device that inputs color image data to the image processing device 20 side, such as a color scanner, digital camera, personal computer (PC), and the image output device 30 is a color image of a printer, various displays, a projector, or the like. Is a device that outputs.
図3は、本実施形態の画像処理装置の主要部を示す機能ブロック図である。
本実施形態の画像処理装置20は、格子点情報取得部211、出力色域情報取得部212、入力テーブル生成部213、格子点変換部214、色域圧縮部215、色空間変換部216、およびプロファイル生成部217からなる処理部210を含んで構成される。この画像処理装置20は、上記処理部210に接続される、HDD等の記憶装置や、ディスプレイ装置等の表示装置や、キーボードやタッチパネル等の入力装置を備える通常のコンピュータを利用したハードウェア構成として実現することができる。
FIG. 3 is a functional block diagram showing the main part of the image processing apparatus of the present embodiment.
The image processing apparatus 20 of the present embodiment includes a grid point information acquisition unit 211, an output color gamut information acquisition unit 212, an input table generation unit 213, a grid point conversion unit 214, a color gamut compression unit 215, a color space conversion unit 216, and A processing unit 210 including a profile generation unit 217 is included. The image processing apparatus 20 has a hardware configuration using a normal computer including a storage device such as an HDD, a display device such as a display device, and an input device such as a keyboard and a touch panel, connected to the processing unit 210. Can be realized.
処理部210は、具体的には、CPUなどの制御装置と、ROMやRAMなどのメモリを備える(いずれも図示せず)。処理部210は、その起動時に、ROM、または、HDD等からなる記憶装置に記憶されているプログラム(図示せず)を、主記憶となるRAMに展開することにより、上記各機能部の機能を実現する。また、RAMは、画像処理装置20の各部の演算結果等の各種データを一時記憶するためのワークエリアとしても使用される。なお、上記プログラムは、画像処理装置20用に、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供することができる。または、上記プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由で提供または配布するようにしてもよい。 Specifically, the processing unit 210 includes a control device such as a CPU and a memory such as a ROM and a RAM (none of which are shown). When the processing unit 210 is activated, the processing unit 210 expands a program (not shown) stored in a storage device such as a ROM or an HDD into a main memory RAM, thereby performing the functions of the above functional units. Realize. The RAM is also used as a work area for temporarily storing various data such as calculation results of the respective units of the image processing apparatus 20. The above-mentioned program is a file in an installable or executable format for the image processing apparatus 20 and is read by a computer such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (Digital Versatile Disk). It can be provided by being recorded on a possible recording medium. Alternatively, the program may be stored on a computer connected to a network such as the Internet and provided or distributed via the network.
格子点情報取得部211は、下記のプロファイル生成部217で生成する出力プロファイルにおける格子点の情報(以下、格子点情報と称す)を、この情報を記憶している画像処理装置20の記憶装置または外部から取得する。前述したように格子点はL*a*b*色空間(0≦L*≦100,−128≦a*≦127,−128≦b*≦127)、もしくはXYZ色空間(0≦X≦1.0,0≦Y≦1.0,0≦Z≦1.0)の全域に対して、ユーザが設定した任意の分割数に応じて均等に配置されている。例えば、L*a*b*色空間においてユーザにより分割数が9に設定されれば、L*は、0,12.5,25.0,37.5,…,87.5,100.0のように、100/(9−1)=12.5のステップで分割され、a*,b*は−128,−96,−64,…,96,127のように、256/(9−1)=32のステップで分割される(ただし、a*,b*の最大値は127)。そして、図4に示す、L*a*b*空間内のすべての分割位置の点が格子点となる。なお、以下では、L*a*b*色空間を例として説明するが、XYZ色空間でも同様に考えることができる。 The grid point information acquisition unit 211 stores grid point information (hereinafter referred to as grid point information) in the output profile generated by the profile generation unit 217 described below, or a storage device of the image processing apparatus 20 that stores this information. Obtain from outside. As described above, the lattice points are in the L * a * b * color space (0 ≦ L * ≦ 100, −128 ≦ a * ≦ 127, −128 ≦ b * ≦ 127), or the XYZ color space (0 ≦ X ≦ 1). .., 0 ≦ Y ≦ 1.0, 0 ≦ Z ≦ 1.0) are equally arranged according to an arbitrary number of divisions set by the user. For example, if the number of divisions is set to 9 by the user in the L * a * b * color space, L * is 0, 12.5, 25.0, 37.5, ..., 87.5, 100.0. In this way, 100 / (9-1) = 12.5 is divided, and a * and b * are 256 / (9−, like −128, −96, −64,..., 96, 127. 1) It is divided in 32 steps (however, the maximum value of a * and b * is 127). Then, the points of all the division positions in the L * a * b * space shown in FIG. 4 are lattice points. In the following, the L * a * b * color space will be described as an example, but the same can be considered for the XYZ color space.
出力色域情報取得部212は、出力デバイスが再現可能な色域(出力色域)の情報(以下、出力色域情報と称す)を、この情報を記憶している画像処理装置20の記憶装置または外部から取得する。本実施形態では、出力色域の情報(以下、出力色域情報)は、L*a*b*色空間上での出力色域を示す複数の点(特徴点を含む)と、それらに対応する出力デバイス依存の色の情報を含むものとする。さらに、特徴点について、後述の追加対象格子点位置抽出部2133が格子点位置を抽出する際の優先順位も含んでいるものとする。なお、出力色域は、例えば、L*a*b*色空間における出力色域の特徴点に対応するパッチ、例えばCMYKプリンタのYellowであれば、{C,M,Y,K}={0,0,100,0}(%)のパッチを出力デバイスから出力して実際に測色したり、Neugebauer、Yule−Nielsen、ニューラルネットワークなどによる周知の色予測モデルを構築し、各点の色を予測したりして得ることができる。 The output color gamut information acquisition unit 212 stores information on the color gamut (output color gamut) that can be reproduced by the output device (hereinafter referred to as output color gamut information). Or obtain from the outside. In the present embodiment, the output color gamut information (hereinafter referred to as output color gamut information) includes a plurality of points (including feature points) indicating the output color gamut in the L * a * b * color space, and corresponding to them. The output device-dependent color information is included. Furthermore, it is assumed that the priority order when the later-described addition target grid point position extraction unit 2133 extracts grid point positions is included for the feature points. For example, if the output color gamut is a patch corresponding to a feature point of the output color gamut in the L * a * b * color space, for example, Yellow of a CMYK printer, {C, M, Y, K} = {0 , 0, 100, 0} (%) patches are output from the output device to actually measure colors, or a well-known color prediction model such as Neugebauer, Yule-Nielsen, or a neural network is constructed, and the color of each point is determined. It can be obtained by prediction.
入力テーブル生成部213は、格子点情報取得部211が取得した格子点情報と、出力色域情報取得部212が取得した出力色域情報とを用いて入力テーブルの生成を行う。この入力テーブルは、L*,a*,b*のそれぞれについての、任意の階調数の入出力の関係を定めたテーブルからなる。図5A〜図5Cに、11階調の場合のL*,a*,b*の各テーブル(初期状態)を例示する。図6A〜図6Cは、この各テーブルの入出力関係をグラフで表したものである。なお、図5A〜図5Cの例では、入力側をわかりやすく等間隔としているが、実際は自由に設定可能である。入力テーブル生成部213は、このような各テーブルを、上記格子点情報と出力色域情報とを用いて調整することにより最終的な入力テーブルを生成する。入力テーブルの生成の詳細については、後述する。 The input table generation unit 213 generates an input table using the grid point information acquired by the grid point information acquisition unit 211 and the output color gamut information acquired by the output color gamut information acquisition unit 212. This input table is a table that defines the input / output relationship of an arbitrary number of gradations for each of L * , a * , and b * . FIG. 5A to FIG. 5C illustrate L * , a * , and b * tables (initial state) in the case of 11 gradations. 6A to 6C are graphs showing the input / output relationship of each table. In the example of FIGS. 5A to 5C, the input side is set at equal intervals in an easy-to-understand manner, but in practice it can be set freely. The input table generation unit 213 generates a final input table by adjusting each such table using the lattice point information and the output color gamut information. Details of the generation of the input table will be described later.
格子点変換部214は、入力テーブル生成部213で生成された入力テーブルを用いて格子点の変換を行う。具体的には、格子点変換部214は、まず、入力テーブルの入力値と格子点のL*,a*,b*値をそれぞれ比較して、格子点の値を挟む入力テーブルの入力値を探す。例えば{L*,a*,b*}={12.5,−128,−96}の格子点については、L*=12.5が入力テーブルの10と20の間にあることが見つかる。これから、L*=12.5の変換値を、入力テーブルの10と20の出力値の線形補間により(48.12−35.11)×(12.5−10)/(20−10)+35.11=38.36として求める。a*,b*についても同様にして求めると、変換後の値は{L*,a*,b*}={38.36,−128,−69.21}となる。なお、入力テーブルの入力値と格子点のL*、a*,b*値が一致する場合、格子点変換部214は、この入力値に対応する出力値を変換後の値とする。このように入力テーブルを用いて、全格子点のL*,a*,b*値を変換する。なお、XYZ色空間の場合でも同様に行える。 The lattice point conversion unit 214 converts lattice points using the input table generated by the input table generation unit 213. Specifically, the grid point conversion unit 214 first compares the input values of the input table with the L * , a * , and b * values of the grid points, and determines the input values of the input table that sandwich the grid point values. look for. For example, for lattice points {L * , a * , b * } = {12.5, −128, −96}, it is found that L * = 12.5 is between 10 and 20 in the input table. From this, the converted value of L * = 12.5 is (48.12−35.11) × (12.5−10) / (20−10) +35 by linear interpolation of the output values of 10 and 20 in the input table. .11 = 38.36. If a * and b * are obtained in the same manner, the converted values are {L * , a * , b * } = {38.36, −128, −69.21}. When the input value of the input table matches the L * , a * , and b * values of the grid point, the grid point conversion unit 214 sets the output value corresponding to the input value as the value after conversion. In this way, the L * , a * , and b * values of all grid points are converted using the input table. The same can be done for the XYZ color space.
色域圧縮部215は、格子点変換部214で変換された格子点の情報と出力色域情報取得部212が取得した出力色域情報を基に、出力色域外部の格子点変換後の各格子点が出力色域内に収まるよう色域圧縮を行う。色域圧縮とは、各格子点のL*a*b*値を出力デバイスが再現できる範囲である出力色域内に収まるように、移動させる処理である。この色域圧縮の具体例としては、図7に例示するように、出力色域をポリゴンで表しておいて、格子点からこのポリゴンの表面に向かってベクトルを引いて、その交点を色域圧縮後の点とする方法がある。ここでベクトルをどちらに向けるかは特に決まりはなく、設計者の思想による。例えば、ここでのベクトルの向きは、出力色域外の格子点が、一番近い上記ポリゴン上の面に向かって移動するように、あるいは、色味を変えないためにa*,b*(XYZ色空間の場合はY,Z)の比を維持して上記ポリゴン上の面に移動するように、決定することができる。 The color gamut compression unit 215 uses the grid point information converted by the grid point conversion unit 214 and the output color gamut information acquired by the output color gamut information acquisition unit 212 to convert each grid point outside the output color gamut. Color gamut compression is performed so that the grid points fall within the output color gamut. Color gamut compression is a process of moving the L * a * b * values of each grid point so that they fall within the output color gamut, which is a range that can be reproduced by the output device. As a specific example of this color gamut compression, as illustrated in FIG. 7, the output color gamut is represented by a polygon, a vector is drawn from the lattice point toward the surface of this polygon, and the intersection is color gamut compressed. There is a method as a later point. There is no particular rule as to which direction the vector is directed, and it depends on the idea of the designer. For example, the orientation of the vector here is a * , b * (XYZ) so that the grid point outside the output color gamut moves toward the nearest surface on the polygon or the color is not changed. In the case of a color space, it can be determined to move to the surface on the polygon while maintaining the ratio of Y, Z).
色空間変換部216は、色域圧縮部215による色域圧縮で得られた各格子点の色域圧縮処理後のL*a*b*値を、出力色域情報取得部212が取得している出力色域情報を基に、出力デバイス用の出力値(例えばCMYK値)に変換する。なお、出力色域情報に、対応する点が含まれていない色域圧縮後の点については、色空間変換部216は、まず、色域情報に含まれるL*a*b*色空間上の点の内、変換対象の点の近傍の点でこの変換対象の点を囲む点を探す。そして、色空間変換部216は、見つかった点に対応する出力デバイス依存の色の情報(例えば、YMCK値)を用いて、後述の式(1)等を用いた補間演算により変換対象の点の出力デバイス用の出力値を求める。 In the color space conversion unit 216, the output color gamut information acquisition unit 212 acquires the L * a * b * value after the color gamut compression processing of each lattice point obtained by the color gamut compression by the color gamut compression unit 215. Based on the output color gamut information, the output value for the output device (for example, CMYK value) is converted. For points after color gamut compression that do not include a corresponding point in the output color gamut information, the color space conversion unit 216 firstly has an L * a * b * color space included in the color gamut information. Among the points, a point surrounding the point to be converted is searched for at a point near the point to be converted. Then, the color space conversion unit 216 uses the output device-dependent color information (for example, YMCK value) corresponding to the found point, and performs interpolation of the point to be converted by an interpolation calculation using Equation (1) described later. Find the output value for the output device.
プロファイル生成部217は、格子点情報が示す各格子点と色空間変換部216で変換された出力デバイス用の出力値の関係を示したLUTを生成し、プロファイル化し出力プロファイルを生成する。 The profile generation unit 217 generates an LUT indicating the relationship between each grid point indicated by the grid point information and the output value for the output device converted by the color space conversion unit 216, and generates a profile to generate an output profile.
図8は、入力テーブル生成部213の機能構成を示したブロック図である。 FIG. 8 is a block diagram illustrating a functional configuration of the input table generation unit 213.
入力テーブル生成部213は、特徴点設定部2131、差分値算出部2132、追加対象格子点位置抽出部2133、および制御点追加部2134から構成される。 The input table generation unit 213 includes a feature point setting unit 2131, a difference value calculation unit 2132, an addition target grid point position extraction unit 2133, and a control point addition unit 2134.
ここで、入力テーブル生成部213の特徴点設定部2131、差分値算出部2132、追加対象格子点位置抽出部2133、および制御点追加部2134による入力テーブル生成処理について説明する。図9は、入力テーブル生成処理について説明するフローチャートである。 Here, input table generation processing by the feature point setting unit 2131, the difference value calculation unit 2132, the addition target grid point position extraction unit 2133, and the control point addition unit 2134 of the input table generation unit 213 will be described. FIG. 9 is a flowchart illustrating the input table generation process.
特徴点設定部2131は、出力色域情報取得部212が取得した出力色域情報から出力色域の特徴点の情報を抽出し、ワークエリアに設定する(S100)。図10は、特徴点抽出結果を例示した図である。特徴点設定部2131では、図10に例示するようにL*a*b*色空間における特徴点を設定している。この特徴点は、出力色域の端部付近に存在する見込みが高い一次色、二次色、白黒の点が該当し、特徴点抽出結果には、それらの点のL*a*b*値と、下記の追加対象格子点位置抽出部2133が格子点位置を抽出する際の優先順位が格納されている。 The feature point setting unit 2131 extracts feature point information of the output color gamut from the output color gamut information acquired by the output color gamut information acquisition unit 212 and sets it in the work area (S100). FIG. 10 is a diagram illustrating a feature point extraction result. The feature point setting unit 2131 sets feature points in the L * a * b * color space as illustrated in FIG. This feature point corresponds to a primary color, secondary color, or black and white point that is likely to exist near the end of the output color gamut, and the feature point extraction result includes the L * a * b * value of those points. The priority order when the following addition target grid point position extraction unit 2133 extracts grid point positions is stored.
なお、特徴点は図10に例示したものには限られず、各特徴点の間の点、例えばRとYの中間に相当する{C,M,Y,K}={0,50,100,0}(%)の点や、WとYの中間に相当する{C,M,Y,K}={0,0,50,0}(%)の点など、許容するリソースや処理時間に応じて、適宜加減することができる。 Note that the feature points are not limited to those illustrated in FIG. 10. For example, {C, M, Y, K} corresponding to a middle point between R and Y = {0, 50, 100, 0} (%) points and {C, M, Y, K} = {0, 0, 50, 0} (%) points that are intermediate between W and Y. Accordingly, it can be appropriately adjusted.
また、優先順位についても、本実施形態では他の色が混ざった際に目立ちやすい一次色を優先した順位としているが、使用頻度の高いRedの優先順位を上げるなど、ユーザの嗜好や設計者の狙いに応じて、適宜順位を変更してよい。 Also, with regard to the priority order, in this embodiment, the priority is given to the primary color that is conspicuous when other colors are mixed. The order may be changed as appropriate according to the aim.
次にS110において、差分値算出部2132は、まず、S100で特徴点設定部2131が設定した特徴点の情報から1つの特徴点の色値を取得する。 Next, in S110, the difference value calculation unit 2132 first acquires the color value of one feature point from the feature point information set by the feature point setting unit 2131 in S100.
続いてS120において、差分値算出部2132は、a*,b*について取得した特徴点の色値と、格子点情報取得部211により取得済みのa*=0、b*=0の点を除く各格子点の位置(以下、格子点位置)での色値との差分値(例えば、a*,b*の各々の値について差の大きさをとり総和として求める)を算出する(S120)。このとき、特定の格子点を動かしたくないなどの希望がある場合には、その格子点の位置は算出対象から除外してもよい。なお、上記差分値に代え、特徴点と各格子点との2点間の距離を採用してもよい。 Subsequently, in S120, the difference value calculation unit 2132 excludes the color values of the feature points acquired for a * and b * and the points of a * = 0 and b * = 0 acquired by the grid point information acquisition unit 211. A difference value from the color value at each grid point position (hereinafter referred to as a grid point position) (for example, the difference between the values of a * and b * is obtained as a sum) is calculated (S120). At this time, if there is a desire to move a specific grid point, the position of the grid point may be excluded from the calculation target. In addition, it may replace with the said difference value and may employ | adopt the distance between two points of a feature point and each lattice point.
続いてS130において、追加対象格子点位置抽出部2133は、差分値算出部2132で算出したものの中で差分値が最小となる格子点位置を追加対象格子点位置として抽出する。なお、異なる特徴点に対し、同一の格子点位置が抽出される場合、追加対象格子点位置抽出部122は、前述の優先順位に従い、優先順位の高い方の特徴点に対して当該格子点位置が抽出されたものとし、優先順位の低い方の特徴点に対しては、当該格子点位置を除外して抽出を行う。なお、ここで優先順位の低い方の特徴点に対しては、差分値が次に小さい格子点位置を抽出対象とすることとなる。 Subsequently, in S <b> 130, the addition target grid point position extraction unit 2133 extracts the grid point position having the smallest difference value among the values calculated by the difference value calculation unit 2132 as the addition target grid point position. When the same grid point position is extracted for different feature points, the addition target grid point position extraction unit 122 applies the grid point position to the feature point with the higher priority according to the above-described priority order. And the feature point with the lower priority is extracted by excluding the position of the lattice point. Here, for the feature point with the lower priority, the grid point position with the next smallest difference value is set as the extraction target.
さらにS140において、追加対象格子点位置抽出部2133は、抽出した格子点位置の色値を入力値とする制御点が入力テーブルに設定済みかどうか判定する。なお、ここでは、入力テーブルのL*,a*,b*の各テーブルの入出力値の組を制御点と呼ぶこととする。 Further, in S140, the addition target grid point position extraction unit 2133 determines whether or not a control point having the color value of the extracted grid point position as an input value has been set in the input table. Here, a set of input / output values of the L * , a * , and b * tables of the input table is referred to as a control point.
上記判定の結果、既に抽出した格子点位置の色値を入力値とする制御点が既に設定済みである場合には(S140でYes)、S150において、追加対象格子点位置抽出部2133は、その制御点に対応する出力値を特徴点の色値に変更する。その後S160において、その格子点位置を除外してS130に戻り、次に差分が小さい格子点位置を抽出する。このS130、S140、S150、S160での、(1):格子点の位置の抽出、(2):抽出した格子点位置が入力テーブルに設定済みであるかどうかの判定、(3):(1)で抽出した格子点位置の除外の処理は、除外されていない格子点位置を対象に、抽出した格子点位置の値を入力値とする制御点がないと判定されるまで、順次行われる。 As a result of the determination, if a control point having the input color value of the already extracted grid point position has already been set (Yes in S140), in S150, the addition target grid point position extracting unit 2133 The output value corresponding to the control point is changed to the color value of the feature point. Thereafter, in S160, the grid point position is excluded and the process returns to S130, and the grid point position having the next smallest difference is extracted. In S130, S140, S150, and S160, (1): extraction of grid point position, (2): determination of whether or not the extracted grid point position has been set in the input table, (3): (1 The process of excluding the grid point positions extracted in step) is sequentially performed until it is determined that there is no control point whose input value is the value of the extracted grid point position for the grid point positions that are not excluded.
S140の判定で、抽出した格子点位置の色値を入力値とする制御点がなかった場合は(S140でNo)、S170において、制御点追加部2134は、抽出した格子点位置の色値を入力値、特徴点の色値を出力値とする制御点を入力テーブルに追加する。 If it is determined in S140 that there is no control point whose input value is the color value of the extracted grid point position (No in S140), in S170, the control point adding unit 2134 determines the color value of the extracted grid point position. A control point having the input value and the color value of the feature point as an output value is added to the input table.
この追加変更後、S180に進み、既に全ての特徴点について処理済みであれば(S180でYes)、一連の処理を終了する。まだ処理が完了していない特徴点があれば(S180でNo)、S110に戻って、全ての特徴点に対して処理済みとなるまで、以降の処理を繰り返す。このようにして、最終的な入力テーブルを生成する。 After this additional change, the process proceeds to S180, and if all the feature points have already been processed (Yes in S180), the series of processes ends. If there is a feature point that has not yet been processed (No in S180), the process returns to S110, and the subsequent processing is repeated until all the feature points have been processed. In this way, a final input table is generated.
次に入力テーブルの生成について具体例を挙げ説明する。図11は、入力テーブルの生成方法について説明する図である。 Next, the generation of the input table will be described with a specific example. FIG. 11 is a diagram for explaining an input table generation method.
入力テーブルの制御点の数については格子点の配置の際の分割数とは独立に、2〜最大値(8bitならば256、16bitなら65536)までの間で、任意に設定可能である。また、実際にはL*、a*,b*の三次元の色空間を対象としており、L*,a*,b*のそれぞれについて上述の追加処理による入力テーブルの調整が行われるが、以下では、簡便のため、a*,b*の二次元の空間で説明する。 The number of control points in the input table can be arbitrarily set between 2 and the maximum value (256 for 8 bits and 65536 for 16 bits) independently of the number of divisions in the arrangement of grid points. Moreover, in practice L *, a *, b * directed to a three-dimensional color space, L *, a *, b * of but adjustment of the input table by adding the above-described processing is performed for each of the following Then, for the sake of simplicity, the description will be made in a two-dimensional space of a * and b * .
まず、出力色域における特徴点Pのa*b*値{ap,bp}を取得し、それに最も近い格子点位置を探索する。ここではG{ag、bg}が特徴点Pに最も近い格子点の位置として抽出される(図11左上グラフ参照)。 First, the a * b * value {ap, bp} of the feature point P in the output color gamut is acquired, and the closest lattice point position is searched. Here, G {ag, bg} is extracted as the position of the lattice point closest to the feature point P (see the upper left graph in FIG. 11).
次に、抽出された最近傍の格子点の位置ag、bgが入力値となっている制御点を入力テーブル内から探索する。 Next, a search is made in the input table for control points whose positions ag and bg of the extracted nearest lattice points are input values.
該当する制御点が見つかった場合、その制御点の出力値を特徴点Pの色値ap、bpに変更する(図11右下グラフ参照)。なお、上記探索において該当する制御点が見つからなかった場合、前述のように制御点の追加処理を行う。 When the corresponding control point is found, the output value of the control point is changed to the color values ap and bp of the feature point P (see the lower right graph in FIG. 11). If no corresponding control point is found in the search, control point addition processing is performed as described above.
この処理が全特徴点に対して行われ、調整された入力テーブルが生成される。 This process is performed for all feature points, and an adjusted input table is generated.
こうして生成された入力テーブルを適用すると、図11の左上グラフの格子点が右下グラフの格子点のように変換される。なお、図11において右下の図は時計回りに90°回転させたものである。 When the input table generated in this way is applied, the lattice points of the upper left graph in FIG. 11 are converted into the lattice points of the lower right graph. In addition, the lower right figure in FIG. 11 is rotated 90 degrees clockwise.
図12は、上記の方法で入力テーブルを調整し生成した例について説明する図である。本実施形態では、格子点変換部214が上述のようにして得られた調整後の入力テーブルを用いて格子点の変換を行い、その変換後の格子点に対して色域圧縮部215が色域圧縮を行うので、出力色域の端部に相当する点に出力色域端部近傍の格子点の位置が一致するように、図12の例では、P→P’、G1→G1’、G2→G2’のように、変換されることになる。このため、出力色域端部近傍の格子点についは色域圧縮処理による色域圧縮が起こらない。これにより出力色域端部の削れの発生を抑制でき、より精度の良い色再現が可能となる。 FIG. 12 is a diagram for explaining an example in which the input table is adjusted and generated by the above method. In the present embodiment, the grid point conversion unit 214 converts grid points using the adjusted input table obtained as described above, and the color gamut compression unit 215 performs color conversion on the grid points after the conversion. In the example of FIG. 12, P → P ′, G1 → G1 ′, so that the position of the grid point near the end of the output color gamut matches the point corresponding to the end of the output color gamut. Conversion is performed as G2 → G2 ′. For this reason, the color gamut compression by the color gamut compression processing does not occur at the lattice points near the end of the output color gamut. As a result, the occurrence of scraping at the end of the output color gamut can be suppressed, and more accurate color reproduction is possible.
図13に、参考のため、従来の方法で格子点の配置を調整した一例を示す。従来技術では、図13の斜線で示した領域のように、出力色域の端部において削れが発生する可能性がある。 FIG. 13 shows an example in which the arrangement of grid points is adjusted by a conventional method for reference. In the prior art, there is a possibility that scraping may occur at the end of the output color gamut, as indicated by the hatched area in FIG.
ここで、本実施形態の方法と従来の方法での処理結果の違いについて、さらに、上述した出力色域外の点Pの信号が入力された場合を例に説明する。なお、補間演算の方法はCMM(Color Management Module)に依存するが、ここでは一般的な例として線形補間を用いるものとする。また、実際の計算はL*、a*,b*の三次元の空間で行われるが、ここでも簡便のためa*,b*の二次元の空間として説明する。 Here, the difference in processing results between the method of the present embodiment and the conventional method will be described by taking as an example the case where the signal at the point P outside the output color gamut described above is input. The interpolation calculation method depends on CMM (Color Management Module), but here, linear interpolation is used as a general example. In addition, the actual calculation is performed in a three-dimensional space of L * , a * , and b *. However, for the sake of simplicity, it will be described as a two-dimensional space of a * and b * .
点Pは格子点G0〜G3で囲まれた点となっている。従来の方法では、色域外に存在する格子点G0とG1は、それぞれ色域圧縮が行われてG0’、G1’となる。 The point P is a point surrounded by the lattice points G0 to G3. In the conventional method, the grid points G0 and G1 existing outside the color gamut are subjected to color gamut compression to become G0 'and G1', respectively.
各格子点に対応するCMYK値は、G0’がGreenとYellowの間の線上、G1’がGreenとCyanの線上、G2とG3が色域内部にあることから、以下のような値になる。 The CMYK values corresponding to the respective lattice points are as follows because G0 'is on the line between Green and Yellow, G1' is on the line between Green and Cyan, and G2 and G3 are inside the color gamut.
G0’:{C,M,Y,K}={c0,0,100,0} (c0≠100)
G1’:{C,M,Y,K}={100,0,y1,0} (y1≠100)
G2:{C,M,Y,K}={c2,m2,y2,0} (c2≠100,m2≠100,y2≠100)
G3:{C,M,Y,K}={c3,m3,y3,0} (c3≠100,m3≠100,y3≠100)
G0 ′: {C, M, Y, K} = {c0, 0, 100, 0} (c0 ≠ 100)
G1 ′: {C, M, Y, K} = {100, 0, y1, 0} (y1 ≠ 100)
G2: {C, M, Y, K} = {c2, m2, y2, 0} (c2 ≠ 100, m2 ≠ 100, y2 ≠ 100)
G3: {C, M, Y, K} = {c3, m3, y3, 0} (c3 ≠ 100, m3 ≠ 100, y3 ≠ 100)
一方、本実施形態の方法によれば、格子点G1は色域外に存在し、色域圧縮が行われてG1’となっているが、G0は色域境界上にあるので動かない。よって、各格子点に対応するCMYK値は、G1’がGreenとYellowの間の線上、G0’=G0がGreen上、G2とG3が色域内部にあることから、以下のような値になる。 On the other hand, according to the method of the present embodiment, the grid point G1 exists outside the color gamut and the color gamut compression is performed to become G1 ', but G0 does not move because it is on the color gamut boundary. Therefore, the CMYK values corresponding to the respective grid points are as follows because G1 ′ is on the line between Green and Yellow, G0 ′ = G0 is on Green, and G2 and G3 are inside the color gamut. .
G0’:{C,M,Y,K}={100,0,100,0}
G1’:{C,M,Y,K}={c0’,0,100,0} (c0’≠100)
G2:{C,M,Y,K}={c2’,m2’,y2’,0} (c2’≠100,m2’≠100,y2’≠100)
G3:{C,M,Y,K}={c3’,m3,’y3’,0} (c3’≠100,m3’≠100,y3’≠100)
G0 ′: {C, M, Y, K} = {100, 0, 100, 0}
G1 ′: {C, M, Y, K} = {c0 ′, 0, 100, 0} (c0 ′ ≠ 100)
G2: {C, M, Y, K} = {c2 ′, m2 ′, y2 ′, 0} (c2 ′ ≠ 100, m2 ′ ≠ 100, y2 ′ ≠ 100)
G3: {C, M, Y, K} = {c3 ′, m3, “y3”, 0} (c3 ′ ≠ 100, m3 ′ ≠ 100, y3 ′ ≠ 100)
ここで、格子点G0〜G3のa*b*値をそれぞれ{a0,b0}、{a0,b1}、{a1,b1}、{a1,b0}とし、入力点Pのa*b*値を{a,b}とすると、Pに対応するCMYK値は以下の式(式(1))で算出される。 Here, the a * b * values of the grid points G0 to G3 are {a0, b0}, {a0, b1}, {a1, b1}, {a1, b0}, respectively, and the a * b * value of the input point P Is {a, b}, the CMYK value corresponding to P is calculated by the following equation (equation (1)).
P:{C,M,Y,K}=db×{da×G0’+(1−da)×G3}+(1−db)×{da×G1’+(1−da)×G2}
ただし、da=(a−a1)/(a0−a1)、
db=(b−b0)/(b1−b0)
P: {C, M, Y, K} = db × {da × G0 ′ + (1-da) × G3} + (1-db) × {da × G1 ′ + (1-da) × G2}
However, da = (a−a1) / (a0−a1),
db = (b−b0) / (b1−b0)
上記からわかるように、従来の方法では、{C,M,Y,K}={C0,0,100,0}→{100,0,100,0}→{100,0,Y0,0}(ただし、c0<C0<100,y0<Y0<100,c0≠100,y0≠100)の線上の点は取りえないが、本実施形態の方法では、Green上の点、つまり{a,b}が入力された場合は、da=db=0となり、{C,M,Y,K}={100,0,100,0}で再現されるなど、色域端部まで有効に活用した精度の良い色再現となる。 As can be seen from the above, in the conventional method, {C, M, Y, K} = {C0,0,100,0} → {100,0,100,0} → {100,0, Y0,0} (However, the point on the line of c0 <C0 <100, y0 <Y0 <100, c0 ≠ 100, y0 ≠ 100) cannot be taken. However, in the method of this embodiment, the point on Green, that is, {a, b } Is input, da = db = 0, and the accuracy that is effectively utilized up to the end of the color gamut, such as being reproduced as {C, M, Y, K} = {100, 0, 100, 0}. Good color reproduction.
(第2の実施形態)
前述の第1の実施形態では、特徴点に格子点が合うように入力テーブルを生成することで、出力色域の端部においても色再現が良好な出力プロファイルを生成することができた。しかし、色域圧縮後の格子点が形成する多面体(ポリゴン)の各面の大きさに偏りがあり、そのためこの多面体上の面毎の色再現精度に差が生じる。
(Second Embodiment)
In the first embodiment described above, it is possible to generate an output profile with good color reproduction even at the end of the output color gamut by generating the input table so that the grid points match the feature points. However, there is a bias in the size of each surface of the polyhedron (polygon) formed by the lattice points after color gamut compression, so that there is a difference in color reproduction accuracy for each surface on this polyhedron.
第2の実施形態においては、第1の実施形態で得られた入力テーブルの制御点の値を基に、入力テーブルを平滑化処理(下記)することで、上記多面体の各面の大きさの偏りを軽減し、面毎の色再現精度の差を抑えるようにする。 In the second embodiment, the input table is smoothed (described below) based on the values of the control points of the input table obtained in the first embodiment. Reduce bias and suppress differences in color reproduction accuracy between surfaces.
図14は、第2の実施形態における入力テーブル生成部213bの機能ブロック図である。前述の第1の実施形態と同様の部分は適宜省略して説明する。 FIG. 14 is a functional block diagram of the input table generation unit 213b according to the second embodiment. The same parts as those in the first embodiment will be omitted as appropriate.
入力テーブル生成部213bは、第1の実施形態の構成に加え、入力テーブル平滑化部2135を含んで構成される。その他の構成は、第1の実施形態と同様である。 The input table generation unit 213b includes an input table smoothing unit 2135 in addition to the configuration of the first embodiment. Other configurations are the same as those of the first embodiment.
ここで、本実施形態における入力テーブル生成処理について、図15を用いて説明する。図15は、本実施形態における入力テーブル生成処理のフローについて説明するフローチャートである。 Here, the input table generation processing in the present embodiment will be described with reference to FIG. FIG. 15 is a flowchart for explaining the flow of input table generation processing in the present embodiment.
S100〜S180においては第1の実施形態と同様の処理が行われる。 In S100 to S180, the same processing as in the first embodiment is performed.
S180において全特徴点について一連の処理が完了した後(S180でYes)、S290において、入力テーブル平滑化部2135が、下記のように、調整後の入力テーブルの各制御点にあてはめる曲線が滑らかになるように制御点の平滑化を行う。前述のように、格子点は、格子点変換部214による入力テーブルを用いた線形補間によって変換される。このため、例えば図16Aのグラフに例示されるような、出力値が0付近に集中しているような入力テーブルの場合、変換後の格子点も0付近に集中してしまい、図16Bの実線で示すように格子点の間隔が内側は狭く外側は広くなってしまい、変換後の格子点は、偏りが生じることとなる。このような偏りを生じさせる入力テーブルの制御点を、この制御点にあてはめられる曲線を平滑化することにより、図16Aの点線で示す線に近づけていくと、各格子点の間隔が均等に近づき、偏りが軽減されることとなる。 After a series of processing has been completed for all feature points in S180 (Yes in S180), in S290, the input table smoothing unit 2135 smoothes the curve to be applied to each control point of the adjusted input table as described below. The control points are smoothed so that As described above, the grid points are converted by linear interpolation using the input table by the grid point conversion unit 214. For this reason, for example, in the case of an input table in which output values are concentrated near 0 as illustrated in the graph of FIG. 16A, the converted grid points are also concentrated near 0, and the solid line in FIG. 16B. As shown by, the lattice point interval is narrow on the inside and wide on the outside, and the transformed lattice points are biased. When the control points of the input table that cause such a bias are brought closer to the line indicated by the dotted lines in FIG. 16A by smoothing the curve applied to the control points, the intervals between the grid points are evenly approached. The bias will be reduced.
ここで、平滑化処理の具体的な例について説明する。 Here, a specific example of the smoothing process will be described.
ここでは、周知のLOESSを用いて平滑化を行った例を示している。LOESSとは局所重み付き多項式回帰法により、複数の点(ここでは制御点)に曲線をあてはめる方法である。具体的には、下記の式(1)が最小となる多項式f(x)を回帰的に求めるものである。なお、多項式f(x)の次元数は、得たい曲線形状に応じて、所望の値にすることができる。 Here, an example in which smoothing is performed using a well-known LOESS is shown. LOESS is a method of fitting a curve to a plurality of points (in this case, control points) by a local weighted polynomial regression method. Specifically, a polynomial f (x) that minimizes the following equation (1) is obtained recursively. Note that the number of dimensions of the polynomial f (x) can be set to a desired value according to the curve shape to be obtained.
ここで、xは注目している制御点の入力値、yは注目している制御点の出力値、xiは注目している制御点の近傍の局所領域span内に存在する各制御点の入力値、f(xi)はxiを多項式に入れた際に求まる値、w(dx)はxからの距離に応じて決まり、距離が近くなるほど大きくなる重みをそれぞれ表している。 Here, x is the input value of the control point of interest, y is the output value of the control point of interest, xi is the input of each control point existing in the local region span near the control point of interest. The value f (xi) is a value obtained when xi is included in the polynomial, and w (dx) is determined according to the distance from x, and represents a weight that increases as the distance becomes shorter.
また、上記spanは入力値全体を1.0として局所領域を表す値であり、例えば8bitの入力信号であった場合、入力値が取れる範囲は0〜256であるので、span=0.25であった場合は、注目点の±32の制御点に対して処理することとなる。 In addition, the above span is a value representing the local region with the entire input value being 1.0. For example, in the case of an 8-bit input signal, the range in which the input value can be taken is 0 to 256, so span = 0.25. If there is, the process is performed on ± 32 control points of interest.
図17A〜図17C、図18A〜図18C、図19A〜図19C、図20A〜図20Cは、spanを切り替えて平滑化を実施した結果を示している。なお、図17A、図18A、図19A、図20A、および図17B、図18B、図19B、図20B中において、実線で示すグラフにおける、a*_in,b*_inは平滑化後の制御点の入力値を示し、b*_out,a*_outは平滑化後の制御点の出力値を示す(点線のグラフは平滑化前のもの)。また、図17C、図18C、図19C、図20Cは、a*b*空間における平滑化後の制御点が形成する格子と、出力色域に対応する色域圧縮後の格子点が形成する多面体(ここではa*b*空間上のもの)を示すものである。 FIGS. 17A to 17C, FIGS. 18A to 18C, FIGS. 19A to 19C, and FIGS. 20A to 20C show the results of smoothing by switching span. In FIGS. 17A, 18A, 19A, 20A, 17B, 18B, 19B, and 20B, a * _in and b * _in in the graphs indicated by solid lines are control points after smoothing. An input value is indicated, and b * _out and a * _out indicate output values of control points after smoothing (dotted line graphs are before smoothing). 17C, FIG. 18C, FIG. 19C, and FIG. 20C are polyhedrons formed by the grid formed by the smoothed control points in the a * b * space and the grid points after the color gamut compression corresponding to the output color gamut. (Here, in the a * b * space).
これらの図で示すように、span(図中、左上に記載)を大きくするほど平滑化され、格子点間の間隔がより均一となるのが分かる。つまり、色域圧縮後の各格子点が形成する多面体上の面の大きさの偏りが少なくなる。つまり、上記のように平滑化した入力テーブルを用いることで、出力色域に対応する色域圧縮後の各格子点が形成する多面体の面毎の色再現精度の差を抑えることができる。なお、ここでは平滑化処理の方式としてLOESSを用いたが、その他にもLOWESSやスプライン補間など種々の方式を用いてよい。 As shown in these figures, it can be seen that as the span (shown in the upper left in the figure) is increased, the smoothing is performed and the intervals between the lattice points become more uniform. That is, the unevenness of the surface size on the polyhedron formed by each lattice point after color gamut compression is reduced. That is, by using the input table smoothed as described above, it is possible to suppress a difference in color reproduction accuracy for each surface of the polyhedron formed by each lattice point after color gamut compression corresponding to the output color gamut. Here, LOESS is used as the smoothing processing method, but various other methods such as LOWESS and spline interpolation may be used.
(利用形態)
続いて、上述の各実施形態の画像処理装置の利用形態について説明する。図21は、各実施形態の画像処理装置の利用形態について説明する図である。
(Usage form)
Next, usage modes of the image processing apparatus according to each of the above-described embodiments will be described. FIG. 21 is a diagram illustrating a usage pattern of the image processing apparatus according to each embodiment.
上述した各実施形態の出力プロファイルを生成する画像処理装置20の利用形態としては、メーカーサイドで利用される場合と、ユーザサイド(オフィス、印刷工場など)で利用される場合とがある。メーカーサイドで利用される場合には、設計者が画像形成装置にデフォルトで搭載する出力プロファイルを設計する際や、顧客からのカスタマイズの依頼に応じて出力プロファイルを修正する際などに利用する。この場合には、出力色域情報取得部212や格子点変換部214や色域圧縮部215などを、画像形成装置や情報処理装置などがそれぞれ別々に独立に備えて、設計者が手順に応じて、各装置に対し、それぞれで必要なデータを読み込み、処理を実行させ、処理結果のデータを保存するような形態としてもよい。 As the usage form of the image processing apparatus 20 that generates the output profile of each embodiment described above, there are a case where it is used on the manufacturer side and a case where it is used on the user side (office, printing factory, etc.). When used on the manufacturer side, it is used when a designer designs an output profile to be mounted by default in the image forming apparatus, or when an output profile is modified in response to a customization request from a customer. In this case, the output color gamut information acquisition unit 212, the grid point conversion unit 214, the color gamut compression unit 215, and the like are provided separately by the image forming apparatus and the information processing apparatus, respectively, and the designer can follow the procedure. Thus, each apparatus may be configured to read necessary data, execute processing, and store processing result data.
一方、ユーザサイドで利用される場合には、印刷装置等のマシンの機差や時間的な変動に対応して、現在のマシンの状態に合った出力プロファイルを作る際に使用される。この場合には、画像処理装置20は、1つのシステムとして提供されるか、もしくはソフトウェアとして提供されて画像処理装置または情報処理装置にインストールされるようにする。また、上記画像処理装置20に備わる各処理部を別々の機器に設ける場合は、各機器に設けた各処理部を連携して動作させることが好ましい。 On the other hand, when used on the user side, it is used to create an output profile that matches the current machine state in response to machine differences such as printing devices and temporal variations. In this case, the image processing apparatus 20 is provided as one system or is provided as software and is installed in the image processing apparatus or the information processing apparatus. In addition, when the processing units included in the image processing apparatus 20 are provided in separate devices, it is preferable to operate the processing units provided in the devices in cooperation with each other.
(その他の実施形態)
前述の第1〜2の実施形態にかかる画像処理装置20が生成する出力プロファイルを、複合機等の画像形成装置に搭載して、この画像形成装置のエンジン部(360)が、この出力プロファイルを用いて色変換を実行して、画像を出力するように構成することができる。このように構成された画像形成装置は、色域端部においても良好な色再現が可能な画像形成装置となる。以下では、複合機のハードウェア構成の一例を説明する。
(Other embodiments)
The output profile generated by the image processing apparatus 20 according to the first and second embodiments is mounted on an image forming apparatus such as a multifunction peripheral, and the engine unit (360) of the image forming apparatus converts this output profile. And can be configured to perform color conversion and output an image. The image forming apparatus configured as described above is an image forming apparatus capable of excellent color reproduction even at the end of the color gamut. Hereinafter, an example of the hardware configuration of the multifunction peripheral will be described.
図22は、第1〜2の実施形態にかかる画像処理装置20が生成した出力プロファイルを搭載した複合機のハードウェア構成の一例を示すブロック図である。本図に示すように、この複合機は、コントローラ310とエンジン部(Engine)360とをPCI(Peripheral Component Interface)バスで接続した構成となる。コントローラ310は、複合機全体の制御と描画、通信、図示しない操作部からの入力を制御するコントローラである。エンジン部360は、PCIバスに接続可能なプリンタエンジンなどであり、たとえば白黒プロッタ、1ドラムカラープロッタ、4ドラムカラープロッタ、スキャナまたはファックスユニットなどである。なお、このエンジン部360には、プロッタなどのいわゆるエンジン部分に加えて、誤差拡散やガンマ変換や入力プロファイルおよび出力プロファイルを用いた色変換などを行う画像処理部分が含まれる。 FIG. 22 is a block diagram illustrating an example of a hardware configuration of a multi-function peripheral equipped with an output profile generated by the image processing apparatus 20 according to the first and second embodiments. As shown in the figure, this multifunction device has a configuration in which a controller 310 and an engine unit (Engine) 360 are connected by a PCI (Peripheral Component Interface) bus. The controller 310 is a controller that controls the entire MFP, drawing, communication, and input from an operation unit (not shown). The engine unit 360 is a printer engine that can be connected to a PCI bus, and is, for example, a monochrome plotter, a 1-drum color plotter, a 4-drum color plotter, a scanner, or a fax unit. The engine unit 360 includes an image processing unit that performs error diffusion, gamma conversion, color conversion using an input profile and an output profile, in addition to a so-called engine unit such as a plotter.
コントローラ310は、CPU311と、ノースブリッジ(NB)313と、システムメモリ(MEM−P)312と、サウスブリッジ(SB)314と、ローカルメモリ(MEM−C)317と、ASIC(Application Specific Integrated Circuit)316と、ハードディスクドライブ(HDD)318とを有し、ノースブリッジ(NB)313とASIC316との間をAGP(Accelerated Graphics Port)バス315で接続した構成となる。また、MEM−P312は、ROM(Read Only Memory)312aと、RAM(Random Access Memory)312bと、をさらに有する。 The controller 310 includes a CPU 311, a north bridge (NB) 313, a system memory (MEM-P) 312, a south bridge (SB) 314, a local memory (MEM-C) 317, and an ASIC (Application Specific Integrated Circuit). 316 and a hard disk drive (HDD) 318, and the North Bridge (NB) 313 and the ASIC 316 are connected by an AGP (Accelerated Graphics Port) bus 315. The MEM-P 312 further includes a ROM (Read Only Memory) 312a and a RAM (Random Access Memory) 312b.
CPU311は、複合機の全体制御をおこなうものであり、NB313、MEM−P312およびSB314からなるチップセットを有し、このチップセットを介して他の機器と接続される。 The CPU 311 performs overall control of the multifunction peripheral, has a chip set including the NB 313, the MEM-P 312 and the SB 314, and is connected to other devices via the chip set.
NB313は、CPU311とMEM−P312、SB314、AGP315とを接続するためのブリッジであり、MEM−P312に対する読み書きなどを制御するメモリコントローラと、PCIマスタおよびAGPターゲットとを有する。 The NB 313 is a bridge for connecting the CPU 311 to the MEM-P 312, SB 314, and AGP 315, and includes a memory controller that controls reading and writing to the MEM-P 312, a PCI master, and an AGP target.
MEM−P312は、プログラムやデータの格納用メモリ、プログラムやデータの展開用メモリ、プリンタの描画用メモリなどとして用いるシステムメモリであり、ROM312aとRAM312bとからなる。ROM312aは、プログラムやデータの格納用メモリとして用いる読み出し専用のメモリであり、RAM312bは、プログラムやデータの展開用メモリ、プリンタの描画用メモリなどとして用いる書き込みおよび読み出し可能なメモリである。 The MEM-P 312 is a system memory used as a memory for storing programs and data, a memory for developing programs and data, a memory for drawing printers, and the like, and includes a ROM 312a and a RAM 312b. The ROM 312a is a read-only memory used as a memory for storing programs and data, and the RAM 312b is a writable and readable memory used as a program and data development memory, a printer drawing memory, and the like.
SB314は、NB313とPCIデバイス、周辺デバイスとを接続するためのブリッジである。このSB314は、PCIバスを介してNB313と接続されており、このPCIバスには、ネットワークインターフェース(I/F)部なども接続される。 The SB 314 is a bridge for connecting the NB 313 to a PCI device and peripheral devices. The SB 314 is connected to the NB 313 via a PCI bus, and a network interface (I / F) unit and the like are also connected to the PCI bus.
ASIC316は、画像処理用のハードウェア要素を有する画像処理用途向けのIC(Integrated Circuit)であり、AGP315、PCIバス、HDD318およびMEM−C317をそれぞれ接続するブリッジの役割を有する。このASIC316は、PCIターゲットおよびAGPマスタと、ASIC316の中核をなすアービタ(ARB)と、MEM−C317を制御するメモリコントローラと、ハードウェアロジックなどにより画像データの回転などをおこなう複数のDMAC(Direct Memory Access Controller)と、エンジン部360との間でPCIバスを介したデータ転送をおこなうPCIユニットとからなる。このASIC316には、PCIバスを介してFCU(Facsimile Control Unit)330、USB(Universal Serial Bus)340、IEEE1394(the Institute of Electrical and Electronics Engineers 1394)インターフェース350が接続される。操作表示部320はASIC316に直接接続されている。 The ASIC 316 is an IC (Integrated Circuit) for image processing having hardware elements for image processing, and has a role of a bridge for connecting the AGP 315, the PCI bus, the HDD 318, and the MEM-C 317, respectively. The ASIC 316 includes a PCI target and an AGP master, an arbiter (ARB) that forms the core of the ASIC 316, a memory controller that controls the MEM-C 317, and a plurality of DMACs (Direct Memory) that rotate image data using hardware logic. (Access Controller) and a PCI unit that performs data transfer between the engine unit 360 via the PCI bus. The ASIC 316 is connected to an FCU (Facile Control Unit) 330, a USB (Universal Serial Bus) 340, and an IEEE 1394 (the Institute of Electrical and Electronics 13) interface via an PCI bus. The operation display unit 320 is directly connected to the ASIC 316.
MEM−C317は、コピー用画像バッファ、符号バッファとして用いるローカルメモリであり、HDD(Hard Disk Drive)318は、画像データの蓄積、プログラムの蓄積、フォントデータの蓄積、フォームの蓄積を行うためのストレージである。 A MEM-C 317 is a local memory used as a copy image buffer and a code buffer, and an HDD (Hard Disk Drive) 318 is a storage for storing image data, programs, font data, and forms. It is.
AGP315は、グラフィック処理を高速化するために提案されたグラフィックスアクセラレーターカード用のバスインターフェースであり、MEM−P312に高スループットで直接アクセスすることにより、グラフィックスアクセラレーターカードを高速にするものである。 The AGP 315 is a bus interface for a graphics accelerator card that has been proposed to speed up graphics processing, and speeds up the graphics accelerator card by directly accessing the MEM-P 312 with high throughput. .
10 画像入力装置
20 画像処理装置
30 画像出力装置
210 処理部
211 格子点情報取得部
212 出力色域情報取得部
213、213b 入力テーブル生成部
214 格子点変換部
215 色域圧縮部
216 色空間変換部
217 プロファイル生成部
2131 特徴点設定部
2132 差分値算出部
2133 追加対象格子点位置抽出部
2134 制御点追加部
2135 入力テーブル平滑化部
DESCRIPTION OF SYMBOLS 10 Image input apparatus 20 Image processing apparatus 30 Image output apparatus 210 Processing part 211 Grid point information acquisition part 212 Output color gamut information acquisition part 213, 213b Input table generation part 214 Grid point conversion part 215 Color gamut compression part 216 Color space conversion part 217 profile generation unit 2131 feature point setting unit 2132 difference value calculation unit 2133 addition target grid point position extraction unit 2134 control point addition unit 2135 input table smoothing unit
Claims (6)
を備え、
前記生成部は、
デバイス非依存の第1色空間における階調数に応じた入力値と出力値の関係を定めた第1テーブルと、
前記出力プロファイルの変換テーブルに含まれる前記第1色空間における格子点に関する情報を取得する格子点情報取得部と、
前記出力デバイスの色域に対応する、前記第1色空間における色域の情報を取得する出力色域情報取得部と、
前記格子点情報取得部で取得した格子点の情報と、前記出力色域情報取得部で取得した前記色域の情報とを基に、前記出力デバイスの色域の少なくとも一次色、二次色のいずれかを含む前記出力デバイスの色域端部の特徴点に対応する前記第1色空間における特徴点の色値を出力値とし、該第1色空間における特徴点に最も近い格子点の色値を入力値とした、前記入力値と前記出力値の関係を前記第1テーブルに設定するテーブル生成部と、
前記格子点情報取得部で取得した格子点に関する情報が示す各格子点の色値を、前記テーブル生成部で生成した第1テーブルの入力値の中で、変換対象の格子点の色値を挟む入力値に対応する出力値を用いて変換する格子点変換部と、
前記格子点変換部で変換した各格子点を前記出力デバイスの色域内に配置させる色域圧縮を行う色域圧縮部と、
前記色域圧縮部で色域圧縮された各格子点の第1色空間における色値を、前記出力デバイスに依存する第2色空間の色値に変換する色空間変換部と、
前記格子点情報取得部で取得した格子点に関する情報が示す各格子点と前記色空間変換部で得られた各格子点に対応する前記第2色空間での色値とを対応付けた変換テーブルを含めた前記出力プロファイルを生成するプロファイル生成部と、
を備えることを特徴とする画像処理装置。 Obtain the color value of the feature point at the end of the color gamut from the color gamut information of the output device, and convert the color value of the point in the device-independent color space to the color value of the corresponding point in the color gamut of the output device An output profile for generating the output profile so that an output value of a conversion table used for the conversion has a color value of a feature point at the end of the color gamut,
With
The generator is
A first table defining a relationship between input values and output values according to the number of gradations in a device-independent first color space;
A grid point information acquisition unit that acquires information about grid points in the first color space included in the conversion table of the output profile;
An output color gamut information acquisition unit that acquires information on the color gamut in the first color space corresponding to the color gamut of the output device;
Based on the grid point information acquired by the grid point information acquisition unit and the color gamut information acquired by the output color gamut information acquisition unit, at least a primary color and a secondary color of the color gamut of the output device. The color value of the feature point in the first color space corresponding to the feature point at the end of the color gamut of the output device including any of the output devices is used as the output value, and the color value of the lattice point closest to the feature point in the first color space A table generation unit that sets a relationship between the input value and the output value in the first table,
The color value of each grid point indicated by the grid point information acquired by the grid point information acquisition unit is sandwiched with the color value of the grid point to be converted among the input values of the first table generated by the table generation unit. A grid point conversion unit for converting using an output value corresponding to the input value;
A color gamut compression unit that performs color gamut compression to place each grid point converted by the grid point conversion unit in the color gamut of the output device;
A color space conversion unit that converts a color value in the first color space of each lattice point subjected to color gamut compression by the color gamut compression unit into a color value in a second color space depending on the output device;
A conversion table in which each grid point indicated by the grid point information acquired by the grid point information acquisition unit is associated with a color value in the second color space corresponding to each grid point obtained by the color space conversion unit. A profile generator that generates the output profile including
An image processing apparatus comprising:
前記出力色域情報取得部で取得した出力デバイスの色域の情報から、前記特徴点を取得し設定する特徴点設定部と、
前記格子点情報取得部で取得した格子点の情報が示す各格子点の前記第1色空間における色値と、前記特徴点設定部で設定した各特徴点の色値との差分値を算出する差分値算出部と、
前記特徴点の各々について前記差分値算出部で算出した差分値が最小となる格子点の位置を前記第1テーブルへの追加対象の格子点位置として抽出する追加対象格子点位置抽出部と、
前記追加対象格子点位置抽出部で抽出した格子点位置の色値が前記第1テーブルの入力値にない場合、該色値を入力値とし、該格子点との間の前記差分値が最小となる前記特徴点の色値を出力値とした制御点を前記第1テーブルに追加し、前記追加対象格子点位置抽出部で抽出した格子点位置の色値が前記第1テーブルの入力値として既にある場合、該入力値に対応する出力値を、該格子点との間の前記差分値が最小となる前記特徴点の色値に変更する制御点追加部と、
を備えることを特徴とする請求項1に記載の画像処理装置。 The table generator is
A feature point setting unit that acquires and sets the feature point from the information on the color gamut of the output device acquired by the output color gamut information acquisition unit;
The difference value between the color value in the first color space of each grid point indicated by the grid point information acquired by the grid point information acquisition unit and the color value of each feature point set by the feature point setting unit is calculated. A difference value calculator,
An additional target grid point position extraction unit that extracts a position of a grid point at which the difference value calculated by the difference value calculation unit is minimum for each of the feature points as a grid point position to be added to the first table;
When the color value of the grid point position extracted by the addition target grid point position extraction unit is not in the input value of the first table, the color value is set as the input value, and the difference value between the grid point and the grid point position is minimum. A control point whose output value is the color value of the feature point is added to the first table, and the color value of the grid point position extracted by the addition target grid point position extraction unit is already input as the input value of the first table. If there is, a control point addition unit that changes an output value corresponding to the input value to a color value of the feature point that minimizes the difference value between the grid points;
The image processing apparatus according to claim 1 , further comprising:
請求項1から請求項3のいずれか1項に記載の画像処理装置によって生成された出力プロファイルを搭載し、該出力プロファイルに従って前記色変換を実行することを特徴とする画像形成装置。 In an image forming apparatus that performs color conversion according to an output profile and outputs an image,
Equipped with output profile generated by the image processing apparatus as claimed in any one of claims 3, an image forming apparatus and executes the color conversion in accordance with the output profile.
前記出力デバイスの色域の情報から色域端部の特徴点の色値を取得し、前記出力プロファイルの、前記変換に用いる変換テーブルの出力値が前記色域端部の特徴点の色値を持つように、前記出力プロファイルを生成する工程と、
階調数に応じた、デバイス非依存の第1色空間での入力値と出力値の関係を定めた第1テーブルを設ける工程と、
格子点情報取得部が、前記出力プロファイルの変換テーブルに含まれる前記第1色空間における格子点に関する情報を取得する工程と、
出力色域情報取得部が、前記出力デバイスの色域に対応する、前記第1色空間における色域の情報を取得する工程と、
テーブル生成部が、前記格子点情報取得部で取得した格子点の情報と、前記出力色域情報取得部で取得した前記色域の情報とを基に、前記出力デバイスの色域の少なくとも一次色、二次色のいずれかを含む前記出力デバイスの色域端部の特徴点に対応する前記第1色空間における特徴点の色値を出力値とし、該第1色空間における特徴点に最も近い格子点の色値を入力値とした、前記入力値と前記出力値の関係を、前記第1色空間における階調数に応じた入力値と出力値の関係を定めた第1テーブルに設定する工程と、
格子点変換部が、前記格子点情報取得部で取得した格子点に関する情報が示す各格子点の色値を、前記テーブル生成部で生成した第1テーブルの入力値の中で、変換対象の格子点の色値を挟む入力値に対応する出力値を用いて変換する工程と、
色域圧縮部が、前記格子点変換部で変換した各格子点を前記出力デバイスの色域内に配置させる色域圧縮を行う工程と、
色空間変換部が、前記色域圧縮部で色域圧縮された各格子点の第1色空間における色値を、前記出力デバイスに依存する第2色空間の色値に変換する工程と、
プロファイル生成部が、前記格子点情報取得部で取得した格子点に関する情報が示す各格子点と前記色空間変換部で得られた各格子点に対応する前記第2色空間での色値とを対応付けた変換テーブルを含めた前記出力プロファイルを生成する工程と、
を含むことを特徴とする画像処理方法。 An image processing method in an image processing apparatus for generating an output profile for converting a color value of a point in a device-independent color space into a color value of a corresponding point in a color gamut of an output device,
The color value of the feature point at the end of the color gamut is acquired from the color gamut information of the output device, and the output value of the conversion table used for the conversion of the output profile is the color value of the feature point at the end of the color gamut. Generating the output profile to have:
Providing a first table that defines a relationship between an input value and an output value in a device-independent first color space according to the number of gradations;
A grid point information acquisition unit acquiring information regarding grid points in the first color space included in the conversion table of the output profile;
An output color gamut information obtaining unit obtaining information on a color gamut in the first color space corresponding to the color gamut of the output device;
Based on the grid point information acquired by the grid point information acquisition unit and the color gamut information acquired by the output color gamut information acquisition unit by the table generation unit, at least a primary color of the color gamut of the output device The color value of the feature point in the first color space corresponding to the feature point at the end of the color gamut of the output device including any of the secondary colors is used as the output value, and is closest to the feature point in the first color space. The relationship between the input value and the output value with the color value of the grid point as the input value is set in a first table that defines the relationship between the input value and the output value according to the number of gradations in the first color space. Process,
The grid point conversion unit converts the color value of each grid point indicated by the grid point information acquired by the grid point information acquisition unit, among the input values of the first table generated by the table generation unit, to be converted Converting using the output value corresponding to the input value sandwiching the color value of the point;
A step of performing color gamut compression in which the color gamut compression unit arranges each grid point converted by the grid point conversion unit in the color gamut of the output device;
A step of converting a color value in the first color space of each lattice point subjected to color gamut compression by the color gamut compression unit into a color value of a second color space depending on the output device;
Each profile point indicated by the grid point information acquired by the grid point information acquisition unit and a color value in the second color space corresponding to each grid point obtained by the color space conversion unit are generated by the profile generation unit. Generating the output profile including the associated conversion table;
An image processing method comprising:
階調数に応じた、デバイス非依存の第1色空間での入力値と出力値の関係を定めた第1テーブルを設ける工程と、
格子点情報取得部が、前記出力プロファイルの変換テーブルに含まれる前記第1色空間における格子点に関する情報を取得する工程と、
出力色域情報取得部が、前記出力デバイスの色域に対応する、前記第1色空間における色域の情報を取得する工程と、
テーブル生成部が、前記格子点情報取得部で取得した格子点の情報と、前記出力色域情報取得部で取得した前記色域の情報とを基に、前記出力デバイスの色域の少なくとも一次色、二次色のいずれかを含む前記出力デバイスの色域端部の特徴点に対応する前記第1色空間における特徴点の色値を出力値とし、該第1色空間における特徴点に最も近い格子点の色値を入力値とした、前記入力値と前記出力値の関係を、前記第1色空間における階調数に応じた入力値と出力値の関係を定めた第1テーブルに設定する工程と、
格子点変換部が、前記格子点情報取得部で取得した格子点に関する情報が示す各格子点の色値を、前記テーブル生成部で生成した第1テーブルの入力値の中で、変換対象の格子点の色値を挟む入力値に対応する出力値を用いて変換する工程と、
色域圧縮部が、前記格子点変換部で変換した各格子点を前記出力デバイスの色域内に配置させる色域圧縮を行う工程と、
色空間変換部が、前記色域圧縮部で色域圧縮された各格子点の第1色空間における色値を、前記出力デバイスに依存する第2色空間の色値に変換する工程と、
プロファイル生成部が、前記格子点情報取得部で取得した格子点に関する情報が示す各格子点と前記色空間変換部で得られた各格子点に対応する前記第2色空間での色値とを対応付けた変換テーブルを含めた前記出力プロファイルを生成する工程と、
をコンピュータに実行させるためのプログラム。 The color value of the feature point at the end of the color gamut is obtained from the color gamut information of the output device, and the color value of the point in the device-independent color space is changed to the color value of the corresponding point in the color gamut of the output device. Generating the output profile so that the output value of the conversion table used for the conversion of the output profile for conversion has the color value of the feature point at the end of the color gamut;
Providing a first table that defines a relationship between an input value and an output value in a device-independent first color space according to the number of gradations;
A grid point information acquisition unit acquiring information regarding grid points in the first color space included in the conversion table of the output profile;
An output color gamut information obtaining unit obtaining information on a color gamut in the first color space corresponding to the color gamut of the output device;
Based on the grid point information acquired by the grid point information acquisition unit and the color gamut information acquired by the output color gamut information acquisition unit by the table generation unit, at least a primary color of the color gamut of the output device The color value of the feature point in the first color space corresponding to the feature point at the end of the color gamut of the output device including any of the secondary colors is used as the output value, and is closest to the feature point in the first color space. The relationship between the input value and the output value with the color value of the grid point as the input value is set in a first table that defines the relationship between the input value and the output value according to the number of gradations in the first color space. Process,
The grid point conversion unit converts the color value of each grid point indicated by the grid point information acquired by the grid point information acquisition unit, among the input values of the first table generated by the table generation unit, to be converted Converting using the output value corresponding to the input value sandwiching the color value of the point;
A step of performing color gamut compression in which the color gamut compression unit arranges each grid point converted by the grid point conversion unit in the color gamut of the output device;
A step of converting a color value in the first color space of each lattice point subjected to color gamut compression by the color gamut compression unit into a color value of a second color space depending on the output device;
Each profile point indicated by the grid point information acquired by the grid point information acquisition unit and a color value in the second color space corresponding to each grid point obtained by the color space conversion unit are generated by the profile generation unit. Generating the output profile including the associated conversion table;
A program that causes a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014159895A JP6446898B2 (en) | 2014-08-05 | 2014-08-05 | Image processing apparatus, image forming apparatus, image processing method, and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014159895A JP6446898B2 (en) | 2014-08-05 | 2014-08-05 | Image processing apparatus, image forming apparatus, image processing method, and program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016039417A JP2016039417A (en) | 2016-03-22 |
JP6446898B2 true JP6446898B2 (en) | 2019-01-09 |
Family
ID=55530197
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014159895A Active JP6446898B2 (en) | 2014-08-05 | 2014-08-05 | Image processing apparatus, image forming apparatus, image processing method, and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6446898B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4632398B2 (en) * | 2003-12-02 | 2011-02-16 | キヤノン株式会社 | Method for adjusting device profile and image processing apparatus |
JP4972014B2 (en) * | 2008-03-04 | 2012-07-11 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP2013121155A (en) * | 2011-12-09 | 2013-06-17 | Canon Inc | Image processing device |
-
2014
- 2014-08-05 JP JP2014159895A patent/JP6446898B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016039417A (en) | 2016-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012029276A (en) | Image forming device, color adjustment method and color adjustment program | |
US8260045B2 (en) | Color correction coefficient generator, color correction coefficient generation method and computer readable medium | |
JP6344353B2 (en) | Image forming apparatus, color conversion program, and color conversion method | |
US8149456B2 (en) | Color processing method and image forming apparatus for creating a color separation table | |
JP4803122B2 (en) | Color processing apparatus and program | |
JP5854066B2 (en) | Color processing apparatus, image forming apparatus, and program | |
JP4961962B2 (en) | Color processing apparatus and program | |
JP2006262238A (en) | Image processing method, image processor and image processing program | |
JP5299232B2 (en) | Color conversion table creation program, color conversion table creation device, and color conversion table creation method | |
JP5152515B2 (en) | Color correction coefficient generation apparatus and color correction coefficient generation program | |
JP2013247555A (en) | Image processing device | |
JP6446898B2 (en) | Image processing apparatus, image forming apparatus, image processing method, and program thereof | |
US20060209322A1 (en) | Image forming apparatus and method | |
JP2000050090A (en) | Estimating method for measured color value on color batch, generating method for device profile using the same and picture processor | |
JP2007151055A6 (en) | Image processing apparatus, image processing method, and image processing program | |
JP5206428B2 (en) | Color processing apparatus and program | |
JP3910323B2 (en) | Profile creation method and profile creation apparatus | |
JP2020170882A (en) | Color conversion information generation method, color conversion information generation program, and color conversion information generation device | |
JP5408063B2 (en) | Calibration method, program, and calibration system | |
JP5903946B2 (en) | Color processing apparatus and color processing program | |
JP5630231B2 (en) | Color adjustment method, color adjustment apparatus, color adjustment program, and medium storing color adjustment program | |
US8437541B2 (en) | Color correction coefficient generating apparatus, color correction coefficient generation method, and computer readable medium storing program | |
JP2011151491A (en) | Device and program for color conversion | |
JP2009089007A (en) | Color processing apparatus and method | |
JP6740729B2 (en) | Data conversion device, data conversion method, and data conversion program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170721 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180424 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181002 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181017 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181119 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6446898 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |