JP6320278B2 - Color processing apparatus and method - Google Patents

Color processing apparatus and method Download PDF

Info

Publication number
JP6320278B2
JP6320278B2 JP2014237017A JP2014237017A JP6320278B2 JP 6320278 B2 JP6320278 B2 JP 6320278B2 JP 2014237017 A JP2014237017 A JP 2014237017A JP 2014237017 A JP2014237017 A JP 2014237017A JP 6320278 B2 JP6320278 B2 JP 6320278B2
Authority
JP
Japan
Prior art keywords
image data
color
color processing
unit
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014237017A
Other languages
Japanese (ja)
Other versions
JP2016100786A5 (en
JP2016100786A (en
Inventor
利幸 石井
利幸 石井
飯田 祥子
祥子 飯田
鈴木 隆広
隆広 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014237017A priority Critical patent/JP6320278B2/en
Publication of JP2016100786A publication Critical patent/JP2016100786A/en
Publication of JP2016100786A5 publication Critical patent/JP2016100786A5/ja
Application granted granted Critical
Publication of JP6320278B2 publication Critical patent/JP6320278B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像の局所的な階調と色度の変化を再現する色処理に関する。   The present invention relates to color processing for reproducing changes in local gradation and chromaticity of an image.

カメラなどの撮像装置により撮影された画像データをディスプレイやプリンタなどの出力機器で出力する際、入出力機器間の色域差を補正するための色域圧縮処理が行われる。一般に、色域圧縮処理は、入力機器の色データを出力機器の色データに変換するための変換パラメータ(ルックアップテーブル(LUT)やマトリクス等)を予め定義し、当該変換パラメータを用いて画像データを一律に色変換する。   When image data taken by an imaging device such as a camera is output by an output device such as a display or a printer, color gamut compression processing for correcting a color gamut difference between input and output devices is performed. In general, in color gamut compression processing, conversion parameters (lookup table (LUT), matrix, etc.) for converting color data of an input device into color data of an output device are defined in advance, and image data is converted using the conversion parameters. Is uniformly color-converted.

しかし、色域圧縮処理のような画像全体の一律の変換は、画像全体の色を好適に再現可能であるが、局所的な階調を失う場合がある。例えば、入力機器の画像データにおいては視認可能な縞模様が、出力機器用の画像データにおいては階調が圧縮されているため、視認できなくなることがある。   However, uniform conversion of the entire image such as color gamut compression processing can suitably reproduce the color of the entire image, but may lose local gradation. For example, a visible striped pattern in the image data of the input device may not be visible because the gradation is compressed in the image data for the output device.

局所的な階調が失われる問題を解決する方法として、画像の空間周波数特性に基づく処理が提案されている。例えば特許文献1が開示する技術は、入力画像データを局所コントラスト成分と全体明るさ成分に分離し、全体明るさ成分のみを階調圧縮することで、入力画像データの階調を維持しつつダイナミックレンジを圧縮した画像を得る。しかし、特許文献1の技術には、次の課題がある。   As a method for solving the problem of losing local gradation, processing based on the spatial frequency characteristics of an image has been proposed. For example, the technique disclosed in Patent Document 1 separates input image data into a local contrast component and an overall brightness component, and only compresses the overall brightness component with gradation, thereby maintaining dynamic gradation of the input image data. Obtain an image with a compressed range. However, the technique of Patent Document 1 has the following problems.

一つ目の課題は、色座標による圧縮率の違いが考慮されていないことである。上述した色域圧縮処理においては、色度によって圧縮率が異なる明度圧縮および彩度圧縮が実施されるが、特許文献1の技術においては色度による圧縮率の違いが考慮されず、局所的な階調や色度の変化を適切に再現することができない。   The first problem is that the difference in compression rate due to color coordinates is not taken into consideration. In the color gamut compression processing described above, lightness compression and saturation compression with different compression rates depending on chromaticity are performed, but the technique of Patent Document 1 does not consider the difference in compression rate due to chromaticity, and is local. Changes in gradation and chromaticity cannot be reproduced properly.

二つ目の課題は、処理時間が長いことである。画像の空間周波数に基づく処理は、一般に処理コストが高く、従来の色域圧縮処理に比べて処理時間が非常に長くなる。   The second problem is that the processing time is long. The processing based on the spatial frequency of the image generally has a high processing cost, and the processing time is very long compared to the conventional color gamut compression processing.

特開2009-038504号公報JP 2009-038504

本発明は、画像の局所的な階調と色度の変化の再現を向上することを目的とする。また、画像の局所的な階調と色度の変化成分を保存して、色域を圧縮した画像データを生成することを他の目的とする。   An object of the present invention is to improve the reproduction of changes in local gradation and chromaticity of an image. Another object of the present invention is to generate image data in which the color gamut is compressed by storing the local gradation and chromaticity change components of the image.

本発明は、前記の目的を達成する一手段として、以下の構成を備える。   The present invention has the following configuration as one means for achieving the above object.

本発明の色処理装置は以下の構成を備える。すなわち、
入力画像データから複数の上位ビットで構成される上位ビット画像データを分離する分離手段と、
前記入力画像データが表す色と前記上位ビット画像データが表す色の差分を差分画像データとして算出する算出手段と、
画像形成条件に対応する変換情報に基づき、前記上位ビット画像データに色処理を施し、前記色処理後の上位ビット画像データと前記差分画像データを合成処理する色処理手段を有し、
前記算出手段は、前記入力画像データと前記上位ビット画像データをデバイス非依存色空間の画像データに変換し、それら画像データの差分を前記差分画像データとして算出する
The color processing apparatus of the present invention has the following configuration. That is,
Separating means for separating upper bit image data composed of a plurality of upper bits from input image data;
Calculating means for calculating a difference between the color represented by the input image data and the color represented by the upper bit image data as difference image data;
Based on conversion information corresponding to image forming conditions, color processing is performed on the upper bit image data, and color processing means for synthesizing the difference image data with the upper bit image data after the color processing,
The calculation means converts the input image data and the higher-order bit image data into image data in a device-independent color space, and calculates a difference between the image data as the difference image data .

本発明によれば、画像の局所的な階調と色度の変化の再現を向上することができる。また、画像の局所的な階調と色度の変化成分を保存して、色域を圧縮した画像データを生成することができる。   According to the present invention, it is possible to improve the reproduction of changes in local gradation and chromaticity of an image. In addition, it is possible to generate image data in which the color gamut is compressed by storing the local gradation and chromaticity change components of the image.

実施例の色処理を実行する情報処理装置の構成例を示すブロック図。FIG. 3 is a block diagram illustrating a configuration example of an information processing apparatus that performs color processing according to an embodiment. 実施例1の色処理装置の処理構成例を示すブロック図。FIG. 2 is a block diagram illustrating a processing configuration example of the color processing apparatus according to the first embodiment. 色処理装置における色処理を説明するフローチャート。6 is a flowchart for explaining color processing in the color processing apparatus. UIの一例を示す図。The figure which shows an example of UI. 色処理装置の色処理におけるシグナルフローを示す図。The figure which shows the signal flow in the color processing of a color processing apparatus. 変換情報および後述する補正係数テーブルの一例を示す図。The figure which shows an example of the conversion information and the correction coefficient table mentioned later. 補正係数の取得処理を説明するフローチャート。The flowchart explaining the acquisition process of a correction coefficient. 大域変化データと局所変化データの分離処理を説明するフローチャート。The flowchart explaining the separation process of global change data and local change data. 補正処理を説明するフローチャート。The flowchart explaining a correction process. 合成処理を説明するフローチャート。The flowchart explaining a synthetic | combination process. 実施例2におけるUIの一例を示す図。FIG. 10 is a diagram illustrating an example of a UI according to the second embodiment. 実施例2の分離部による分離処理を説明するフローチャート。9 is a flowchart for explaining separation processing by a separation unit according to the second embodiment. 実施例3における色変換プロファイルの構成例を示す図。FIG. 10 is a diagram illustrating a configuration example of a color conversion profile according to the third embodiment. 実施例3の補正係数の取得処理を説明するフローチャート。10 is a flowchart for explaining correction coefficient acquisition processing according to the third embodiment. 実施例3の色変換プロファイルを作成するプロファイル作成部の構成例を示すブロック図。FIG. 10 is a block diagram illustrating a configuration example of a profile creation unit that creates a color conversion profile according to the third embodiment. プロファイル作成処理を説明するフローチャート。The flowchart explaining a profile creation process. 実施例4の色処理装置の処理構成例を示すブロック図。FIG. 10 is a block diagram illustrating a processing configuration example of a color processing apparatus according to a fourth embodiment. 実施例4の色処理装置における色処理を説明するフローチャート。10 is a flowchart for explaining color processing in the color processing apparatus according to the fourth embodiment. UIの一例を示す図。The figure which shows an example of UI. 差分画像データの生成処理を説明するフローチャート。The flowchart explaining the production | generation process of difference image data. 色処理部の処理を説明するフローチャート。5 is a flowchart for explaining processing of a color processing unit. 変換情報の一例を示す図。The figure which shows an example of conversion information.

以下、本発明にかかる実施例の色処理装置および色処理方法を図面を参照して詳細に説明する。なお、実施例は特許請求の範囲にかかる本発明を限定するものではなく、また、実施例において説明する構成の組み合わせのすべてが本発明の解決手段に必須とは限らない。   Hereinafter, a color processing apparatus and a color processing method according to an embodiment of the present invention will be described in detail with reference to the drawings. In addition, an Example does not limit this invention concerning a claim, and all the combinations of the structure demonstrated in an Example are not necessarily essential for the solution means of this invention.

[装置の構成]
図1のブロック図により実施例の色処理を実行する情報処理装置の構成例を示す。CPU201は、RAMなどのメインメモリ202をワークメモリとして、HDDまたはSSDなどの記憶部203やROM204に格納されたプログラムを実行し、システムバス205を介して後述する構成を制御する。なお、記憶部203やROM204には、後述する色処理を実現するプログラムや各種データが格納されている。
[Device configuration]
The block diagram of FIG. 1 shows an example of the configuration of an information processing apparatus that executes the color processing of the embodiment. The CPU 201 uses a main memory 202 such as a RAM as a work memory, executes a program stored in a storage unit 203 or a ROM 204 such as an HDD or an SSD, and controls a configuration to be described later via a system bus 205. Note that the storage unit 203 and the ROM 204 store programs and various data for realizing color processing described later.

USBなど汎用インタフェイス(I/F)206には、キーボードやマウスなどの指示入力部207、USBメモリやメモリカードなどの記録メディア(コンピュータが読み取り可能な記録媒体)208、画像出力装置209などが接続される。また、ビデオカード(VC)210に接続されたモニタ211には、CPU201によって、ユーザインタフェイス(UI)や処理経過や処理結果を示す情報が表示される。   A general-purpose interface (I / F) 206 such as USB includes an instruction input unit 207 such as a keyboard and a mouse, a recording medium (computer-readable recording medium) 208 such as a USB memory and a memory card, and an image output device 209. Connected. Further, on the monitor 211 connected to the video card (VC) 210, the CPU 201 displays information indicating the user interface (UI), processing progress, and processing results.

例えば、CPU201は、指示入力部207を介して入力されるユーザ指示に従いROM204、記憶部203または記録メディア208に格納されたアプリケーションプログラム(AP)をメインメモリ202の所定領域にロードする。そして、APを実行し、APに従いモニタ211にUIを表示する。   For example, the CPU 201 loads an application program (AP) stored in the ROM 204, the storage unit 203, or the recording medium 208 into a predetermined area of the main memory 202 in accordance with a user instruction input via the instruction input unit 207. Then, the AP is executed, and the UI is displayed on the monitor 211 according to the AP.

次に、CPU201は、ユーザ指示に従い記憶部203や記録メディア208に格納された各種データをメインメモリ202の所定領域にロードする。そして、APに従いメインメモリ202にロードした各種データに所定の演算処理を施す。そして、CPU201は、ユーザ指示に従い演算処理結果をモニタ211に表示したり、記憶部203や記録メディア208に格納したり、画像出力装置209に出力したりする。   Next, the CPU 201 loads various data stored in the storage unit 203 and the recording medium 208 into a predetermined area of the main memory 202 in accordance with a user instruction. Then, predetermined arithmetic processing is performed on various data loaded into the main memory 202 in accordance with the AP. Then, the CPU 201 displays the calculation processing result on the monitor 211 according to the user instruction, stores it in the storage unit 203 or the recording medium 208, and outputs it to the image output device 209.

なお、CPU201は、システムバス205に接続された図示しないネットワークI/Fを介して、有線または無線ネットワーク上のコンピュータ装置やサーバ装置との間でプログラム、データ、演算処理結果の送受信を行うこともできる。また、モニタ211と指示入力部207は、それらを重ねたタッチパネルであってもよく、その場合、情報処理装置はタブレットデバイスまたはスマートフォンのようなコンピュータ機器である。   Note that the CPU 201 can also send and receive programs, data, and arithmetic processing results to and from computer devices and server devices on a wired or wireless network via a network I / F (not shown) connected to the system bus 205. it can. The monitor 211 and the instruction input unit 207 may be a touch panel in which they are overlapped. In that case, the information processing apparatus is a computer device such as a tablet device or a smartphone.

[処理構成]
図2のブロック図により実施例1の色処理装置101の処理構成例を示す。なお、図2に示す色処理装置101は、CPU201が画像処理APを実行することにより実現され、画像処理APにより後述する色処理装置101の処理が実行される。また、図2には示さないが、各部の処理は、メインメモリ202に割り当てられたバッファを使用して実行される。
[Processing configuration]
An example of the processing configuration of the color processing apparatus 101 of the first embodiment is shown in the block diagram of FIG. Note that the color processing apparatus 101 illustrated in FIG. 2 is realized by the CPU 201 executing the image processing AP, and the processing of the color processing apparatus 101 described later is executed by the image processing AP. Although not shown in FIG. 2, the processing of each unit is executed using a buffer allocated to the main memory 202.

UI部102は、UIをモニタ211に表示し、UIに対するユーザ指示を指示入力部207を介して入力する。ユーザ指示には、例えば、画像出力装置の選択、画像出力装置の画像形成条件、画像出力装置に出力する画像データの指示などが含まれる。   The UI unit 102 displays the UI on the monitor 211 and inputs a user instruction to the UI via the instruction input unit 207. The user instruction includes, for example, selection of an image output device, image forming conditions of the image output device, an instruction of image data to be output to the image output device, and the like.

画像入力部103は、ユーザ指示に従い画像データ(入力画像データ)を記憶部203や記録メディア208から入力する。分離部104は、フィルタ処理により入力画像データを画像の局所的な階調と色度の変化を表すデータ(以下、局所変化データ)と、画像のより大域的な階調と色度の変化を表すデータ(以下、大域変化データ)に分離する。   The image input unit 103 inputs image data (input image data) from the storage unit 203 or the recording medium 208 in accordance with a user instruction. The separation unit 104 performs filtering processing on the input image data as data representing changes in local gradation and chromaticity of the image (hereinafter referred to as local change data), and changes in global gradation and chromaticity of the image. The data to be represented (hereinafter referred to as global change data) is separated.

補正係数取得部105は、画像出力装置の選択と画像形成条件によって特定される、色処理用の変換情報を変換情報保持部106から取得し、変換情報に基づき補正係数を取得する。補正処理部107は、補正係数に基づき、局所変化データに補正処理を施す。   The correction coefficient acquisition unit 105 acquires the conversion information for color processing specified by the selection of the image output device and the image forming conditions from the conversion information holding unit 106, and acquires the correction coefficient based on the conversion information. The correction processing unit 107 performs correction processing on the local change data based on the correction coefficient.

合成部108は、大域変化データと補正処理された局所変化データを合成する。色処理部109は、補正係数取得部105と同様に取得した色処理用の変換情報に基づき、合成処理後の画像データに色処理を施す。出力部111は、色処理された画像データを含む印刷ジョブを画像出力装置209に出力する。画像出力装置209は、指定された画像形成条件に従い、入力される画像データが表す画像を記録媒体に形成する。   The combining unit 108 combines the global change data and the corrected local change data. The color processing unit 109 performs color processing on the combined image data based on the conversion information for color processing acquired in the same manner as the correction coefficient acquisition unit 105. The output unit 111 outputs a print job including the color-processed image data to the image output device 209. The image output device 209 forms an image represented by the input image data on a recording medium in accordance with designated image forming conditions.

なお、色処理部109は、例えば、画像出力装置209の、指定された画像形成条件における色域(以下、出力色域)に応じた変換情報を変換情報保持部106から取得し、画像データの色域を出力色域にマッピングする色域マッピングなどの色処理を実行する。   Note that the color processing unit 109 acquires, for example, conversion information corresponding to a color gamut (hereinafter referred to as an output color gamut) in a specified image forming condition of the image output device 209 from the conversion information holding unit 106, and Performs color processing such as gamut mapping that maps the gamut to the output gamut.

また、出力部111は、画像出力装置209の、指定された画像形成条件に対応する色分解テーブルを用いて画像データのRGB信号値を色材量を表す色材量信号値CMYKに変換する色分解処理を実行する。さらに、出力部111は、画像データの階調数を画像出力装置209が処理可能な階調数に低減するハーフトーン処理なども実行する。勿論、出力部111からRGB画像データを受信した画像出力装置209が色分解処理やハーフトーン処理を行ってもよい。   Further, the output unit 111 uses the color separation table corresponding to the designated image forming condition of the image output device 209 to convert the RGB signal value of the image data into a color material amount signal value CMYK that represents the color material amount. Perform the disassembly process. Further, the output unit 111 also executes halftone processing for reducing the number of gradations of the image data to the number of gradations that can be processed by the image output device 209. Of course, the image output device 209 that has received the RGB image data from the output unit 111 may perform color separation processing and halftone processing.

[処理の流れ]
図3のフローチャートにより色処理装置101における色処理を説明する。UI部102は、以降の処理に必要な情報をユーザが入力するためのUIをモニタ211に表示する(S11)。図4によりUIの一例を示す。
[Process flow]
The color processing in the color processing apparatus 101 will be described with reference to the flowchart of FIG. The UI unit 102 displays a UI for the user to input information necessary for the subsequent processing on the monitor 211 (S11). An example of the UI is shown in FIG.

ユーザは、指示入力部1001を操作して、画像データの出力先の画像出力装置を指定する情報(例えば型番)、および、出力する画像データのファイル名を入力または選択する。出力対象の画像データが指示されると(S12)、画像入力部103は、当該画像データを入力する(S13)。画像表示部1002には、出力が指示された画像データ(入力画像データ)が表す画像が表示される。   The user operates the instruction input unit 1001 to input or select information (for example, a model number) for specifying an image output device to which image data is output and a file name of the image data to be output. When image data to be output is designated (S12), the image input unit 103 inputs the image data (S13). The image display unit 1002 displays an image represented by image data (input image data) for which output is instructed.

次に、ユーザは、出力モード選択部1003を操作して、画像を出力する際の画像出力装置の出力モードを選択する。なお、出力モードとして、例えば、写真調、モニタ画像にカラーマッチングするモニタマッチなどが選択可能である。なお、指示入力部1001と出力モード選択部1003の操作順は逆でもよく、ユーザは、出力モード選択部1003を操作した後、指示入力部1001を操作してもよい。   Next, the user operates the output mode selection unit 1003 to select the output mode of the image output apparatus when outputting an image. As an output mode, for example, photographic tone, monitor match for color matching with a monitor image, or the like can be selected. Note that the operation order of the instruction input unit 1001 and the output mode selection unit 1003 may be reversed, and the user may operate the instruction input unit 1001 after operating the output mode selection unit 1003.

変換ボタン1005は、色処理の実行を指示を行うためのボタンである。ユーザによって変換ボタン1005が押される(またはタッチされる)と、画像表示部1004に、選択された画像出力装置および出力モード(以下、画像形成条件)に対応する色域に入力画像データをマッピングした画像が表示される。出力ボタン1006は、色処理装置101による処理結果を画像出力装置209に出力する指示を行うためのボタンである。ユーザによって出力ボタン1006が押される(またはタッチされる)と、色処理装置101は、入力画像データを画像出力装置209に出力するための色処理を開始する。なお、変換ボタン1005の操作は必須ではなく、変換ボタン1005の操作せずに出力ボタン1006を操作することが可能である。   The conversion button 1005 is a button for instructing execution of color processing. When the conversion button 1005 is pressed (or touched) by the user, the input image data is mapped to the image display unit 1004 in the color gamut corresponding to the selected image output device and output mode (hereinafter, image forming conditions). An image is displayed. The output button 1006 is a button for giving an instruction to output the processing result by the color processing apparatus 101 to the image output apparatus 209. When the output button 1006 is pressed (or touched) by the user, the color processing apparatus 101 starts color processing for outputting input image data to the image output apparatus 209. Note that the operation of the conversion button 1005 is not essential, and the output button 1006 can be operated without operating the conversion button 1005.

変換ボタン1005または出力ボタン1006が押されると(S14)、補正係数取得部105は、画像形成条件に対応する変換情報(色処理用の変換情報)を変換情報保持部106から取得する(S15)。そして、色処理用の変換情報に基づき補正係数を取得する(S16)。なお、補正係数の取得処理の詳細は後述する。   When the conversion button 1005 or the output button 1006 is pressed (S14), the correction coefficient acquisition unit 105 acquires conversion information (conversion information for color processing) corresponding to the image forming condition from the conversion information holding unit 106 (S15). . Then, a correction coefficient is acquired based on the conversion information for color processing (S16). Details of the correction coefficient acquisition process will be described later.

次に、分離部104は、詳細は後述するが、フィルタ処理により入力画像データを大域変化データと局所変化データに分離する(S17)。続いて、補正処理部107は、詳細は後述するが、補正係数に基づき、局所変化データに補正処理を施す(S18)。   Next, as will be described in detail later, the separation unit 104 separates the input image data into global change data and local change data by filtering (S17). Subsequently, as will be described in detail later, the correction processing unit 107 performs correction processing on the local change data based on the correction coefficient (S18).

次に、合成部108は、大域変化データと補正処理された局所変化データを合成する(S19)。続いて、色処理部109は、画像形成条件に対応する色処理用の変換情報を変換情報保持部106から取得し(S20)、色処理用の変換情報に基づき、合成後の画像データに色処理を施す(S21)。この時点で、画像表示部1004に、入力画像データを色域マッピングした画像が表示される。また、出力ボタン1006が押された場合は、出力部111によって色処理後の画像データが画像出力装置209に出力される(S22)。   Next, the synthesizing unit 108 synthesizes the global change data and the corrected local change data (S19). Subsequently, the color processing unit 109 acquires conversion information for color processing corresponding to the image forming condition from the conversion information holding unit 106 (S20), and based on the conversion information for color processing, the color processing unit 109 adds color information to the combined image data. Processing is performed (S21). At this time, an image obtained by color-gamut mapping the input image data is displayed on the image display unit 1004. When the output button 1006 is pressed, the output unit 111 outputs the image data after color processing to the image output device 209 (S22).

図5により色処理装置101の色処理におけるシグナルフローを示す。補正係数取得部105は、色処理用の変換情報を取得し(S15)、補正係数を算出する(S16)。一方、分離部104は、RGB→LC変換(S17a)と平滑化フィルタ処理(S17b)により大域変化データの明度信号Lmと彩度信号Cmを生成する。そして、入力画像データのLC値を大域変化データLmCmで除算して(S17c)、局所変化データL'C'を生成する。つまり、入力画像データの明度信号Lをフィルタ処理後の明度信号Lmで除算し、入力画像データの彩度信号Cをフィルタ処理後の彩度信号Cmで除算した局所変化データL'C'を生成する。   FIG. 5 shows a signal flow in the color processing of the color processing apparatus 101. The correction coefficient acquisition unit 105 acquires conversion information for color processing (S15) and calculates a correction coefficient (S16). On the other hand, the separation unit 104 generates a brightness signal Lm and a saturation signal Cm of global change data by RGB → LC conversion (S17a) and smoothing filter processing (S17b). Then, the LC value of the input image data is divided by the global change data LmCm (S17c) to generate local change data L′ C ′. In other words, local change data L'C 'is generated by dividing the lightness signal L of the input image data by the lightness signal Lm after filtering and dividing the saturation signal C of the input image data by the saturation signal Cm after filtering. To do.

次に、補正処理部107は、補正係数に基づき局所変化データL'C'に補正処理を施す(S18)。合成部108は、補正処理された局所変化データLcCcと大域変化データLmCmの乗算による合成処理(S19a)およびLC→RGB変換(S19b)を行う(S19b)。そして、色処理部109は、色処理用の変換情報を取得し(S20)、合成後の画像データに色処理を施す(S21)。   Next, the correction processing unit 107 performs correction processing on the local change data L′ C ′ based on the correction coefficient (S18). The synthesizing unit 108 performs a synthesizing process (S19a) by multiplication of the corrected local change data LcCc and the global change data LmCm and LC → RGB conversion (S19b) (S19b). The color processing unit 109 acquires conversion information for color processing (S20), and performs color processing on the combined image data (S21).

図6により変換情報および後述する補正係数テーブルの一例を示す。図6(a)に示す変換情報は、RGB値の範囲を例えば17スライスした均等格子の各格子点(RGB値)に対応する画像出力装置のデバイスRGB値が記述されたルックアップテーブル(LUT)である。なお、変換情報の形式は、LUTに限らず、マトリクスなどの行列式やガンマテーブル形式でもよい。   FIG. 6 shows an example of conversion information and a correction coefficient table described later. The conversion information shown in FIG. 6 (a) is a lookup table (LUT) in which device RGB values of the image output device corresponding to each grid point (RGB value) of a uniform grid obtained by slicing the range of RGB values, for example, 17 slices. It is. The format of the conversion information is not limited to the LUT, but may be a determinant such as a matrix or a gamma table format.

このように、画像形成条件(画像出力装置と出力モードなど)に適用される色処理の変換情報に基づき、色処理前に補正処理を行うことで、入力画像データにおける階調と色度の変化の適切な再現が画像出力装置209において可能になる。   In this way, by performing correction processing before color processing based on color processing conversion information applied to image forming conditions (image output device and output mode, etc.), changes in gradation and chromaticity in input image data Can be appropriately reproduced in the image output device 209.

●補正係数取得部
図7のフローチャートにより補正係数の取得処理(S16)を説明する。補正係数取得部105は、取得した変換情報の格子点ごとに、明度圧縮率および彩度圧縮率を算出する。つまり、下式を用いて、格子点の入力値(入力RGB値)をLab値Labinに変換し(S61)、格子点の出力値(デバイスRGB値)をLab値Laboutに変換する(S62)。
RLinear = Rγ
GLinear = Gγ
BLinear = Bγ
X = 0.4124×RLinear + 0.3576×GLinear + 0.1805×BLinear
Y = 0.2126×RLinear + 0.7152×GLinear + 0.0722×BLinear
Z = 0.0193×RLinear + 0.1192×GLinear + 0.9505×BLinear

if (X > 0.008856)
fx = (X/Xw)1/3
else
fx = 903.3×(X/Xw)/116;
if (Y > 0.008856)
fy = (Y/Yw)1/3
else
fy = 903.3×(Y/Yw)/116;
if (Z > 0.008856)
fx = (Z/Zw)1/3
else
fx = 903.3×(Z/Zw)/116;

L = 116×fy - 16;
a = 500×(fx - fy);
b = 500×(fy - fz); …(1)
ここで、sRGBの場合はγ=2.2、
XwYwZwは白色点のXYZ値、D65の場合はXw=95.05、Yw=100.0、Zw=108.91。
Correction coefficient acquisition unit Correction coefficient acquisition processing (S16) will be described with reference to the flowchart of FIG. The correction coefficient acquisition unit 105 calculates a lightness compression rate and a saturation compression rate for each lattice point of the acquired conversion information. In other words, using the following formula, the input value (input RGB value) of the grid point is converted to the Lab value Lab in (S61), and the output value (device RGB value) of the grid point is converted to the Lab value Lab out (S62). ).
R Linear = R γ ;
G Linear = G γ ;
B Linear = B γ ;
X = 0.4124 × R Linear + 0.3576 × G Linear + 0.1805 × B Linear ;
Y = 0.2126 × R Linear + 0.7152 × G Linear + 0.0722 × B Linear ;
Z = 0.0193 × R Linear + 0.1192 × G Linear + 0.9505 × B Linear ;
;
if (X> 0.008856)
fx = (X / Xw) 1/3 ;
else
fx = 903.3 × (X / Xw) / 116;
if (Y> 0.008856)
fy = (Y / Yw) 1/3 ;
else
fy = 903.3 × (Y / Yw) / 116;
if (Z> 0.008856)
fx = (Z / Zw) 1/3 ;
else
fx = 903.3 × (Z / Zw) / 116;
;
L = 116 x fy-16;
a = 500 × (fx-fy);
b = 500 × (fy-fz);… (1)
Here, γ = 2.2 for sRGB,
XwYwZw is the XYZ value of the white point. For D65, Xw = 95.05, Yw = 100.0, Zw = 108.91.

次に、補正係数取得部105は、式(2)を用いて格子点のLab値をLC値に変換し(S63)、式(3)により格子点ごとの明度圧縮率Lratioと彩度圧縮率Cratioを算出する(S64)。
C = √(a2 + b2); …(2)

Lratio = Lin/Lout
Cratio = Cin/Cout; …(3)
Next, the correction coefficient acquisition unit 105 converts the Lab value of the lattice point into an LC value using Equation (2) (S63), and the lightness compression rate Lratio and saturation compression rate for each lattice point using Equation (3). Cratio is calculated (S64).
C = √ (a 2 + b 2 );… (2)
;
Lratio = L in / L out ;
Cratio = C in / C out ;… (3)

次に、補正係数取得部105は、下式を用いて、算出した圧縮率に基づき補正処理に使用する明度補正係数kLと彩度補正係数kCを算出し(S65)、それら補正係数をバッファに格納する(S66)。
kLi = 1/Lratio;
kCi = 1/Cratio; …(4)
ここで、iは格子点の番号。
Next, the correction coefficient acquisition unit 105 calculates the brightness correction coefficient k L and the saturation correction coefficient k C used for the correction processing based on the calculated compression rate using the following formula (S65), and calculates these correction coefficients. Store in the buffer (S66).
k Li = 1 / Lratio;
k Ci = 1 / Cratio;… (4)
Where i is the number of the grid point.

補正係数は、図6(b)に示すように、格子点のRGB値に対応付けて格納され、RGB値を入力、明度補正係数kL、彩度補正係数kCを出力とするテーブル(以下、補正係数テーブル)を構成する。また、一度作成された補正係数テーブルを画像形成条件(画像出力装置と出力モード)に対応付けて変換情報保持部106に格納することが可能である。その場合、画像形成条件に対応する補正係数テーブルが変換情報保持部106に格納されていれば、補正係数の算出は不要である。 As shown in FIG. 6 (b), the correction coefficient is stored in association with the RGB value of the grid point, and the RGB value is input, and the brightness correction coefficient k L and the saturation correction coefficient k C are output (hereinafter referred to as a table). , Correction coefficient table). In addition, the correction coefficient table once created can be stored in the conversion information holding unit 106 in association with the image forming conditions (image output apparatus and output mode). In this case, if the correction coefficient table corresponding to the image forming condition is stored in the conversion information holding unit 106, it is not necessary to calculate the correction coefficient.

●分離部
図8のフローチャートにより大域変化データと局所変化データの分離処理(S17)を説明する。分離部104は、式(1)により入力画像データをLab値に変換し(S31)、各画素の位相h=a/bを算出し(S32)、式(2)にを用いて入力画像データのLab値をLC値に変換する(S33)。
Separation unit The separation process (S17) of global change data and local change data will be described with reference to the flowchart of FIG. The separation unit 104 converts the input image data into Lab values according to the equation (1) (S31), calculates the phase h = a / b of each pixel (S32), and uses the equation (2) to input image data The Lab value is converted into an LC value (S33).

そして、下式に示すガウシアンフィルタを用いて明度値Lと彩度値Cをそれぞれ平滑化した大域変化データLmCmを生成する(S34)。なお、入力画像データのLC値と位相h、大域変化データLmCmはバッファに格納される。
G(x, y) = 1/(2πσ2)exp{-(x2+y2)/2σ2} …(5)
Then, global change data LmCm is generated by smoothing the lightness value L and the saturation value C using a Gaussian filter shown in the following equation (S34). Note that the LC value and phase h of the input image data and the global change data LmCm are stored in a buffer.
G (x, y) = 1 / (2πσ 2 ) exp {-(x 2 + y 2 ) / 2σ 2 }… (5)

なお、ガウシアンフィルタのカーネルサイズσとして、例えば、入力画像の1/10のサイズを使用するが、サイズはこれに限定されず、後述するように実際の観察距離に基づくカーネルサイズσに決定してもよい。また、ガウシアンフィルタに限らず、移動平均フィルタやバイラテラルフィルタなどの他の平滑化フィルタを用いてもよいし、フーリエ変換を用いて周波数領域上で処理を行って大域変化データを生成してもよい。   As the kernel size σ of the Gaussian filter, for example, the size of 1/10 of the input image is used, but the size is not limited to this, and is determined to be the kernel size σ based on the actual observation distance as described later. Also good. In addition to the Gaussian filter, other smoothing filters such as a moving average filter and a bilateral filter may be used, or global change data may be generated by performing processing in the frequency domain using Fourier transform. Good.

次に、分離部104は、入力画像データの各画素について、明度値Lを大域変化データの対応する画素の明度値Lmで除算し、彩度値Cを大域変化データの対応する画素の彩度値Cmで除算した局所変化データL'C'を生成する(S35)。なお、局所変化データL'C'はバッファに格納される。   Next, for each pixel of the input image data, the separation unit 104 divides the lightness value L by the lightness value Lm of the corresponding pixel of the global change data, and the saturation value C is the saturation of the corresponding pixel of the global change data The local change data L′ C ′ divided by the value Cm is generated (S35). The local change data L′ C ′ is stored in the buffer.

局所変化データの明度値L'(=L/Lm)は、大域変化データの明度値Lmを1(大域階調)とした場合の各画素の明るさの比率を表し、大域階調よりも明るい画素はL'>1、大域階調よりも暗い画素はL'<1になる。同様に、局所変化データの彩度値C'(=C/Cm)は、大域変化データの彩度値Cmを1(大域彩度)とした場合の各画素の彩度の比率を表し、大域彩度よりも彩度が高い画素はC'>1、大域彩度よりも彩度が低い画素はC'<1になる。   The brightness value L ′ (= L / Lm) of the local change data represents the ratio of the brightness of each pixel when the brightness value Lm of the global change data is 1 (global tone) and is brighter than the global tone. Pixels are L ′> 1, and pixels darker than the global gradation are L ′ <1. Similarly, the saturation value C ′ (= C / Cm) of the local change data represents the ratio of the saturation of each pixel when the saturation value Cm of the global change data is 1 (global saturation). Pixels with higher saturation than saturation are C ′> 1, and pixels with lower saturation than global saturation are C ′ <1.

●補正処理部
図9のフローチャートにより補正処理(S18)を説明する。補正処理部107は、注目画素の入力画像データのRGB値をバッファから取得する(S41)。そして、RGB値を入力として補正係数テーブルを参照する補間演算によって、注目画素の明度補正係数kL、彩度補正係数kCを算出する(S42)。
Correction Processing Unit Correction processing (S18) will be described with reference to the flowchart of FIG. The correction processing unit 107 acquires the RGB value of the input image data of the target pixel from the buffer (S41). Then, the lightness correction coefficient k L and the saturation correction coefficient k C of the pixel of interest are calculated by interpolation calculation referring to the correction coefficient table with the RGB values as input (S42).

次に、補正処理部107は、注目画素の局所変化データL'C'をバッファから取得し(S43)、当該L'C'値に下式により補正処理を施す(S44)。なお、補正処理後の局所変化データLcCcはバッファに格納される。
Lc = kL×L';
Cc = kC×C'; …(6)
Next, the correction processing unit 107 acquires the local change data L′ C ′ of the target pixel from the buffer (S43), and performs correction processing on the L′ C ′ value using the following equation (S44). Note that the local change data LcCc after the correction processing is stored in a buffer.
Lc = k L × L ';
Cc = k C × C ';… (6)

ディジタルカメラなどの入力デバイスの色域(入力色域)に比べて、画像出力装置などの出力デバイスの色域(出力色域)は狭く、変換情報は、入力色域を出力色域に色域圧縮するための情報であり、式(3)によって算出される圧縮率<1である。一方、式(4)に示すように補正係数は圧縮率の逆数(>1)であり、式(6)の演算によって局所変化データに階調と彩度の変化を強調する補正処理が施されることになる。   Compared to the color gamut (input color gamut) of an input device such as a digital camera, the color gamut (output color gamut) of an output device such as an image output device is narrow, and conversion information uses the input color gamut as the output color gamut. This is information for compression, and the compression ratio <1 calculated by the equation (3). On the other hand, as shown in Equation (4), the correction coefficient is the reciprocal of the compression ratio (> 1), and correction processing for emphasizing changes in gradation and saturation is applied to the local change data by the calculation of Equation (6). Will be.

次に、補正処理部107は、全画素について補正値LcCcを算出したか否かを判定し(S45)、未了の画素があれば処理をステップS41に戻して、補正値LcCcの算出を繰り返す。   Next, the correction processing unit 107 determines whether or not the correction value LcCc has been calculated for all pixels (S45). If there is an incomplete pixel, the process returns to step S41 to repeat the calculation of the correction value LcCc. .

●合成部
図10のフローチャートにより合成処理(S19)を説明する。合成部108は、バッファから、注目画素の局所変化データLcCcを取得し(S51)、注目画素の大域変化データLmCmを取得する(S52)。そして、補正後の明度値Lcに大域変化データの明度値Lmを乗算し、補正後の彩度値Ccに大域変化データの彩度値Cmを乗算して、注目画素の補正後のLC値を算出する(S53)。
Synthesizing Unit The synthesizing process (S19) will be described with reference to the flowchart of FIG. The synthesizing unit 108 acquires the local change data LcCc of the target pixel from the buffer (S51), and acquires the global change data LmCm of the target pixel (S52). Then, the corrected brightness value Lc is multiplied by the brightness value Lm of the global change data, the corrected saturation value Cc is multiplied by the saturation value Cm of the global change data, and the corrected LC value of the target pixel is calculated. Calculate (S53).

次に、合成部108は、注目画素の位相hをバッファから取得し(S54)、下式により注目画素の補正後のab値を算出する(S55)。
a = √{h2C2/(1 + h2)};
b = √{C2/(1 + h2)}; …(7)
ここで、hはステップS32で算出された注目画素の色相、
CはステップS53で算出された注目画素の彩度値。
Next, the synthesizing unit 108 acquires the phase h of the target pixel from the buffer (S54), and calculates the corrected ab value of the target pixel using the following equation (S55).
a = √ {h 2 C 2 / (1 + h 2 )};
b = √ {C 2 / (1 + h 2 )};… (7)
Here, h is the hue of the target pixel calculated in step S32,
C is the saturation value of the target pixel calculated in step S53.

次に、合成部108は、式(1)の逆演算により、注目画素の補正後のLab値を入力画像データと同じ形式のRGB値に変換する(S56)。そして、全画素について補正後のRGB値を算出したか否かを判定し(S57)、未了の画素があれば処理をステップS51に戻して、補正後のRGB値の算出を繰り返す。   Next, the synthesizing unit 108 converts the Lab value after correcting the pixel of interest into an RGB value in the same format as the input image data by performing the inverse operation of Expression (1) (S56). Then, it is determined whether or not corrected RGB values have been calculated for all pixels (S57). If there is an incomplete pixel, the process returns to step S51, and the calculation of corrected RGB values is repeated.

このように、画像形成条件(画像出力装置と出力モードなど)に応じた変換情報を参照して、画素の明度と彩度に応じた補正処理を画素の局所的な明度成分と彩度成分に施す。従って、色度によって圧縮率が異なる明度圧縮および彩度圧縮が実施される場合も、画像の局所的な階調と色度の変化を適切に再現することが可能になる。   In this way, with reference to the conversion information according to the image forming conditions (image output device and output mode, etc.), the correction processing according to the brightness and saturation of the pixel is applied to the local brightness component and saturation component of the pixel. Apply. Therefore, even when brightness compression and saturation compression with different compression rates depending on chromaticity are performed, it is possible to appropriately reproduce local gradation and chromaticity changes of the image.

以下、本発明にかかる実施例2の色処理装置および色処理方法を説明する。なお、実施例2において、実施例1と略同様の構成については、同一の符号を付して、その詳細な説明を省略する場合がある。   A color processing apparatus and color processing method according to a second embodiment of the present invention will be described below. Note that the same reference numerals in the second embodiment denote the same parts as in the first embodiment, and a detailed description thereof may be omitted.

実施例1では、入力画像データを局所変化データと大域変化データに分離し、変換情報の明度圧縮率と彩度圧縮率に基づき、局所変化データを強調する補正処理を行うことで、画像の局所的な階調や色度の変化を適切に再現する方法を説明した。その際、局所変化データと大域変化データの分離処理に用いるフィルタのパラメータは画像サイズに基づき設定される。例えば、入力画像の1/10のサイズをフィルタのカーネルサイズσにすれば、大域変化データは、入力画像の1/10のサイズの領域における平均的な階調と色度を示すことになる。   In the first embodiment, the input image data is separated into the local change data and the global change data, and based on the lightness compression rate and the saturation compression rate of the conversion information, a correction process that emphasizes the local change data is performed. Explained how to properly reproduce typical gradation and chromaticity changes. At that time, the parameters of the filter used for the separation processing of the local change data and the global change data are set based on the image size. For example, if the size of 1/10 of the input image is set to the kernel size σ of the filter, the global change data indicates the average gradation and chromaticity in the region of 1/10 size of the input image.

実施例2においては、実際の印刷物の観察条件に基づき、フィルタのパラメータを設定する方法を説明する。以下では、実施例1との差分であるUIおよび分離処理(S17)を説明し、その他の構成や処理の説明は省略する。   In the second embodiment, a method for setting filter parameters based on actual print observation conditions will be described. In the following, the UI and separation processing (S17), which are the differences from the first embodiment, will be described, and description of other configurations and processing will be omitted.

画像出力装置209に出力させる印刷物の解像度(出力解像度)をRo[dpi]、当該印刷物の観察距離をD[mm]、視野角をθ(例えば10°)とすると、観察者の視野に入る印刷物の画素数tpは、下式によって表される。なお、以下では視野を正方形として説明するが、半径をtpとする円を視野としてもよい。
tp = Ro/25.4×D×2・tanθ/2 …(8)
If the resolution (output resolution) of the printed matter to be output to the image output device 209 is Ro [dpi], the observation distance of the printed matter is D [mm], and the viewing angle is θ (for example, 10 °), the printed matter enters the observer's field of view. The number of pixels tp is expressed by the following equation. In the following description, the field of view is described as a square, but a circle with a radius tp may be used as the field of view.
tp = Ro / 25.4 × D × 2, tanθ / 2 (8)

また、入力画像データの解像度をRiとすると、印刷物の画素数tpに対応する入力画像データの画素数tdは、下式によって表される。
td = tp×Ri/Ro …(9)
If the resolution of the input image data is Ri, the pixel number td of the input image data corresponding to the pixel number tp of the printed material is expressed by the following equation.
td = tp × Ri / Ro (9)

式(8)(9)から、観察者の視野に入る、入力画像データにおける画素数tdは、視野角θと観察距離によって次のように表される。
td = Ro/25.4×D×2・tanθ/2×Ri/Ro
= Ri/25.4×D×2・tanθ/2 …(10)
From Expressions (8) and (9), the number of pixels td in the input image data that enters the viewer's field of view is expressed as follows by the viewing angle θ and the viewing distance.
td = Ro / 25.4 × D × 2, tanθ / 2 × Ri / Ro
= Ri / 25.4 × D × 2, tanθ / 2 (10)

観察者の視野に入る画素数tdに基づき大域変化データを生成すれば、観察者が認識する大域的な階調と色度をより正確に取得することができる。そして、分離処理により生成される局所変化データは、観察者が認識する局所的な階調と色度の変化をより正確に表すことができる。   If the global change data is generated based on the number of pixels td entering the observer's visual field, the global gradation and chromaticity recognized by the observer can be acquired more accurately. The local change data generated by the separation process can more accurately represent local gradation and chromaticity changes recognized by the observer.

図11により実施例2におけるUIの一例を示す。ユーザは、解像度選択部1011を操作して、入力画像データの解像度Ri[dpi]を選択し、観察距離入力部1012に印刷物を観察する際の観察距離D(単位は例えばミリメートル)を入力する。なお、印刷物は、これから画像出力装置209によって出力する印刷物であることは言うまでもない。   FIG. 11 shows an example of the UI in the second embodiment. The user operates the resolution selection unit 1011 to select the resolution Ri [dpi] of the input image data, and inputs the observation distance D (unit: millimeters, for example) when observing the printed matter to the observation distance input unit 1012. Needless to say, the printed material is a printed material to be output from the image output device 209.

図12のフローチャートにより実施例2の分離部104による分離処理(S17)を説明する。ステップS31からS33の処理は実施例1と同様であり、説明を省略する。Lab→LC変換(S33)が終了すると、分離部104は、UI部102から観察距離Dおよび解像度Riを取得する(S341)。そして、所定の視野角θ(例えば10°)に入る、入力画像データの画素数を視野サイズtdとして算出する(S342)。なお、入力画像データの解像度Riは、例えば、画像データのヘッダ情報から取得してもよい。   The separation process (S17) by the separation unit 104 of the second embodiment will be described with reference to the flowchart of FIG. The processing from step S31 to S33 is the same as that in the first embodiment, and a description thereof will be omitted. When Lab → LC conversion (S33) is completed, the separation unit 104 acquires the observation distance D and the resolution Ri from the UI unit 102 (S341). Then, the number of pixels of the input image data that falls within a predetermined viewing angle θ (for example, 10 °) is calculated as the viewing size td (S342). Note that the resolution Ri of the input image data may be acquired from header information of the image data, for example.

次に、分離部104は、実施例1と同様に入力画像データのLC値を平滑化して大域変化データLmCmを取得する(S343)が、その際、ガウシアンフィルタのカーネルサイズσとして、ステップS342で算出した視野サイズtdを用いる。そして、実施例1と同様に、局所変化データL'C'を生成する(S35)。   Next, the separation unit 104 smoothes the LC value of the input image data to obtain the global change data LmCm in the same manner as in the first embodiment (S343), but at this time, as the kernel size σ of the Gaussian filter, in step S342 The calculated visual field size td is used. Then, the local change data L′ C ′ is generated as in the first embodiment (S35).

このように、画像の局所的な階調と色度の変化を、観察条件を考慮して、より適切に再現することが可能になる。   As described above, it is possible to more appropriately reproduce changes in local gradation and chromaticity of an image in consideration of viewing conditions.

以下、本発明にかかる実施例3の色処理装置および色処理方法を説明する。なお、実施例3において、実施例1、2と略同様の構成については、同一の符号を付して、その詳細な説明を省略する場合がある。   The color processing apparatus and color processing method according to the third embodiment of the present invention will be described below. Note that the same reference numerals in the third embodiment denote the same parts as in the first and second embodiments, and a detailed description thereof may be omitted.

実施例1、2では、画像形成条件に対応する変換情報から明度圧縮率および彩度圧縮率を算出して、局所変化データを補正(強調)する。実施例3においては、当該補正処理を効率化するために利用可能な色変換プロファイルの構成例を説明する。   In the first and second embodiments, the lightness compression rate and the saturation compression rate are calculated from the conversion information corresponding to the image forming conditions, and the local change data is corrected (emphasized). In the third embodiment, a configuration example of a color conversion profile that can be used to improve the efficiency of the correction process will be described.

●色変換プロファイルの構成
入力画像データを画像出力装置209に出力する画像データに変換する色処理装置101は、ICCプロファイルに代表される、入力画像信号を出力色信号(デバイス色信号)に変換するための色変換プロファイルを備えている。そして、画像形成条件に対応する色変換プロファイルを選択して、当該色変換プロファイルを用いて色処理を行う。
Color conversion profile configuration The color processing device 101 that converts input image data into image data to be output to the image output device 209 converts an input image signal, represented by an ICC profile, into an output color signal (device color signal). A color conversion profile is provided. Then, a color conversion profile corresponding to the image forming condition is selected, and color processing is performed using the color conversion profile.

実施例1においては、色変換プロファイルの格子点の入力値(入力RGB値)をLC値に変換し、格子点の出力値(デバイスRGB値)をLC値に変換して、各格子点の明度圧縮率と彩度圧縮率を算出し、さらに、圧縮率から補正係数を算出する。この処理には、式(1)から(4)の演算を必要とする。実施例3においては、それら演算のコストを削減するために、格子点に対応する明度圧縮率と彩度圧縮率を色変換プロファイルに格納する。   In Example 1, the input value (input RGB value) of the grid point of the color conversion profile is converted to an LC value, the output value (device RGB value) of the grid point is converted to an LC value, and the brightness of each grid point is converted. A compression rate and a saturation compression rate are calculated, and a correction coefficient is calculated from the compression rate. This processing requires the calculations of equations (1) to (4). In the third embodiment, in order to reduce the cost of these calculations, the lightness compression rate and the saturation compression rate corresponding to the grid points are stored in the color conversion profile.

図13により実施例3における色変換プロファイルの構成例を示す。図13(a)に示す色変換プロファイルは、格子点の入力値(入力RGB値)に対応して、出力値(デバイスRGB値)、明度圧縮率、彩度圧縮率が記録されたLUTである。勿論、明度圧縮率、彩度圧縮率は、実施例1で説明した手順により予め算出され、色変換プロファイルに記録される。   FIG. 13 shows a configuration example of the color conversion profile in the third embodiment. The color conversion profile shown in FIG. 13 (a) is an LUT in which an output value (device RGB value), a lightness compression rate, and a saturation compression rate are recorded corresponding to an input value (input RGB value) of a grid point. . Of course, the lightness compression rate and the saturation compression rate are calculated in advance by the procedure described in the first embodiment and recorded in the color conversion profile.

なお、図13には入力RGB値をデバイスRGB値に変換するLUTを備える色変換プロファイルを示したが、Labに代表される色座標値などを格納する形式のLUTを備える色変換プロファイルでもよい。その場合、入力RGB値をLab値に変換して、Lab値に対応する明度圧縮率、彩度圧縮率を取得すればよい。   Although FIG. 13 shows a color conversion profile including a LUT that converts an input RGB value into a device RGB value, a color conversion profile including an LUT that stores a color coordinate value typified by Lab may be used. In that case, the input RGB value may be converted into an Lab value, and the lightness compression rate and the saturation compression rate corresponding to the Lab value may be acquired.

図14のフローチャートにより実施例3の補正係数の取得処理(S16)を説明する。補正係数取得部105は、ステップS15において変換情報保持部106から色変換プロファイルを取得した後、色変換プロファイルに格納されたLUTを参照し、格子点に対応して記録された明度圧縮率と彩度圧縮率を取得する(S123)。そして、取得した圧縮率に基づき、式(4)により、各格子点の補正係数を算出し(S124)、算出した補正係数を補正係数テーブルとしてバッファに格納する(S125)。図14の補正係数の取得処理によれば、図7に示す補正係数の算出における格子点のRGB→Lab変換(S21、S22)が不要になり、処理の高速化が図れる。   The correction coefficient acquisition process (S16) of the third embodiment will be described with reference to the flowchart of FIG. The correction coefficient acquisition unit 105 acquires the color conversion profile from the conversion information holding unit 106 in step S15, and then refers to the LUT stored in the color conversion profile to record the lightness compression rate and the saturation recorded corresponding to the lattice points. The degree compression rate is acquired (S123). Then, based on the acquired compression rate, a correction coefficient for each lattice point is calculated by Equation (4) (S124), and the calculated correction coefficient is stored in the buffer as a correction coefficient table (S125). According to the correction coefficient acquisition process of FIG. 14, the RGB → Lab conversion (S21, S22) of the grid points in the calculation of the correction coefficient shown in FIG. 7 becomes unnecessary, and the processing speed can be increased.

このように、図13(a)に示す構成の色変換プロファイルを用いることによって、明度圧縮率と彩度圧縮率を算出する処理の簡易化が可能になり、局所変化データの補正処理の効率化を図ることができる。   In this way, by using the color conversion profile having the configuration shown in FIG. 13 (a), it becomes possible to simplify the process of calculating the lightness compression ratio and the saturation compression ratio, and to improve the efficiency of the correction process of the local change data. Can be achieved.

●インテントへの対応
また、色変換プロファイルには、色相や彩度の色再現特性の種類(インテント)として、忠実な色再現を行うためのモニタマッチプロファイルおよび測色的(カラリメトリック)プロファイルがある。さらに、色相・彩度を好ましく再現する知覚的(パーセプチャル)プロファイルがある。
● Support for intents Color conversion profiles include monitor match profiles and colorimetric (colorimetric) profiles for faithful color reproduction as the types of color reproduction characteristics (intents) of hue and saturation. There is. In addition, there is a perceptual profile that preferably reproduces hue and saturation.

測色的プロファイルは、入力RGBにおけるLabと出力RGBにおけるLabを一致させるプロファイルである。従って、画像出力時のインテントの選択によっては、上記補正処理による局所変化データの強調が望ましくない場合がある。そこで、色変換プロファイルのインテントに応じてLUTを構成することが考えられる。   The colorimetric profile is a profile that matches Lab in input RGB and Lab in output RGB. Therefore, depending on the selection of the intent at the time of image output, the enhancement of the local change data by the correction process may not be desirable. Therefore, it is conceivable to configure the LUT according to the intent of the color conversion profile.

図13(b)はインテントと補正対象の関係を示し、「0」は非補正対象、「1」は補正対象を示す。例えば、図13(a)に示す色変換プロファイルが知覚的プロファイルの場合、当該色変換プロファイルのLUTには明度圧縮率のみを格納する(あるいは彩度圧縮率をすべて1にする)。そして、インテントとしてパーセプチャルが指定された場合、補正処理部107が局所変化データの明度値L'のみを補正するようにすればよい。   FIG. 13B shows the relationship between the intent and the correction target, “0” indicates the non-correction target and “1” indicates the correction target. For example, when the color conversion profile shown in FIG. 13A is a perceptual profile, only the lightness compression rate is stored in the LUT of the color conversion profile (or the saturation compression rate is all set to 1). Then, when a perceptual is designated as an intent, the correction processing unit 107 may correct only the brightness value L ′ of the local change data.

また、インテントとしてモニタマッチが指定された場合、明度圧縮率と彩度圧縮率を格納したLUTを有する色変換プロファイルにより、補正処理部107が局所変化データの明度値L'と彩度値C'を補正するようにすればよい。   When monitor match is specified as the intent, the correction processing unit 107 uses the color conversion profile having the LUT storing the lightness compression rate and the saturation compression rate, so that the correction processing unit 107 uses the lightness value L ′ and the saturation value C of the local change data. Correct '.

また、インテントとしてカラリメトリックが指定された場合、圧縮率を格納しないLUTを有する色変換プロファイルにより、補正処理部107が局所変化データの明度値L'と彩度値C'を実質的に補正しないようにすればよい。なお、圧縮率を格納しない代わりに、明度圧縮率と彩度圧縮率をすべて1にしてもよい。   In addition, when colorimetric is specified as the intent, the correction processing unit 107 substantially corrects the lightness value L ′ and the saturation value C ′ of the local change data by the color conversion profile having the LUT that does not store the compression rate. Do not do that. Instead of storing the compression rate, all of the lightness compression rate and the saturation compression rate may be set to 1.

このように、インテントに対応する補正対象の制御が可能になり、ユーザが望む色再現性を実現する画像形成が可能になる。   In this way, it is possible to control the correction target corresponding to the intent, and it is possible to form an image that realizes the color reproducibility desired by the user.

●圧縮率テーブルを含む色変換プロファイルの作成
また、色処理装置101の変換情報保持部106に格納された色変換プロファイルが明度圧縮率、彩度圧縮率が記録されていない一般的な色変換プロファイルの場合がある。そこで、変換情報保持部106に格納された色変換プロファイルを参照して作成した明度圧縮率と彩度圧縮率のテーブルを含む図13(a)に示す色変換プロファイルを、新たに作成して変換情報保持部106に格納することが考えられる。
Creation of a color conversion profile including a compression rate table In addition, the color conversion profile stored in the conversion information holding unit 106 of the color processing apparatus 101 is a general color conversion profile in which the lightness compression rate and the saturation compression rate are not recorded. There are cases. Therefore, a new color conversion profile shown in FIG. 13 (a) including a table of brightness compression ratio and saturation compression ratio created by referring to the color conversion profile stored in the conversion information holding unit 106 is created and converted. It is conceivable to store the information in the information holding unit 106.

図15のブロック図により実施例3の色変換プロファイルを作成するプロファイル作成部110の構成例を示す。色変換部1101は、変換情報保持部106に格納された色変換プロファイルを参照して、色変換LUTの各格子点の入力値(入力RGB値)をLC値に変換し、出力値(デバイスRGB値)をLC値に変換する。圧縮率算出部1102は、色変換部1101から入力されるLC値から明度圧縮率と彩度圧縮率を算出する。テーブル作成部1103は、格子点に対応する明度圧縮率と彩度圧縮率を記録した圧縮率テーブルを作成する。プロファイル作成部1104は、作成された圧縮率テーブルと、色変換部1101が参照した色変換プロファイルの色変換テーブルを合成した色変換プロファイを作成し、作成した色変換プロファイルを変換情報保持部106に格納する。   A block diagram of FIG. 15 shows a configuration example of the profile creation unit 110 that creates the color conversion profile of the third embodiment. The color conversion unit 1101 refers to the color conversion profile stored in the conversion information holding unit 106, converts the input value (input RGB value) of each grid point of the color conversion LUT into an LC value, and outputs the output value (device RGB) Value) into an LC value. The compression rate calculation unit 1102 calculates the lightness compression rate and the saturation compression rate from the LC value input from the color conversion unit 1101. The table creation unit 1103 creates a compression rate table that records the lightness compression rate and the saturation compression rate corresponding to the grid points. The profile creation unit 1104 creates a color conversion profile by combining the created compression rate table and the color conversion table of the color conversion profile referred to by the color conversion unit 1101, and stores the created color conversion profile in the conversion information holding unit 106. Store.

図16のフローチャートによりプロファイル作成処理を説明する。プロファイル作成部110は、変換情報保持部106から色変換プロファイルを取得して(S201)、当該色変換プロファイルが圧縮率テーブルを備える構成の色変換プロファイルか否かを判定する(S202)。   The profile creation process will be described with reference to the flowchart of FIG. The profile creation unit 110 acquires a color conversion profile from the conversion information holding unit 106 (S201), and determines whether the color conversion profile is a color conversion profile having a compression rate table (S202).

圧縮率テーブルを備える構成の色変換プロファイルの場合、プロファイル作成部110は、プロファイル作成処理を終了する。また、圧縮率テーブルを備えない構成の色変換プロファイルの場合、プロファイル作成部110は、ステップS203以降の処理を実行する。   In the case of a color conversion profile having a compression rate table, the profile creation unit 110 ends the profile creation process. In the case of a color conversion profile having no compression rate table, the profile creation unit 110 executes the processing from step S203 onward.

色変換部1101は、色変換プロファイルの色変換LUTの各格子点の入力値(入力RGB値)をLC値に変換し(S203)、出力値(デバイスRGB値)をLC値に変換する(S204)。次に、圧縮率算出部1102は、色変換部1101から入力されるLC値から明度圧縮率と彩度圧縮率を算出する(S205)。ステップS206の判定により、すべての格子点の明度圧縮率と彩度圧縮率が算出されるまで、ステップS203からS205の処理が繰り返される。   The color conversion unit 1101 converts the input value (input RGB value) of each grid point of the color conversion LUT of the color conversion profile into an LC value (S203), and converts the output value (device RGB value) into an LC value (S204). ). Next, the compression rate calculation unit 1102 calculates a lightness compression rate and a saturation compression rate from the LC values input from the color conversion unit 1101 (S205). The processing of steps S203 to S205 is repeated until the lightness compression rate and saturation compression rate of all grid points are calculated by the determination of step S206.

すべての格子点の明度圧縮率と彩度圧縮率の算出が終了すると、テーブル作成部1103は、格子点に対応する明度圧縮率と彩度圧縮率を記録した圧縮率テーブルを作成する(S207)。次に、プロファイル作成部1104は、作成された圧縮率テーブルと、色変換部1101が参照した色変換プロファイルの色変換LUTに圧縮率テーブルを合成して、圧縮率テーブルを含む色変換プロファイを作成する(S208)。そして、作成した色変換プロファイルを変換情報保持部106に格納する(S209)。   When the calculation of the brightness compression rate and the saturation compression rate of all grid points is completed, the table creation unit 1103 creates a compression rate table in which the brightness compression rate and the saturation compression rate corresponding to the grid points are recorded (S207). . Next, the profile creation unit 1104 synthesizes the compression rate table with the created compression rate table and the color conversion LUT of the color conversion profile referenced by the color conversion unit 1101 to create a color conversion profile including the compression rate table. (S208). Then, the created color conversion profile is stored in the conversion information holding unit 106 (S209).

なお、プロファイル作成部110は、変換情報保持部106に色変換プロファイルが格納された場合にプロファイル作成処理を実行してもよいし、ユーザ指示に従いプロファイル作成処理を実行してもよい。   Note that the profile creation unit 110 may execute profile creation processing when a color conversion profile is stored in the conversion information holding unit 106, or may execute profile creation processing according to a user instruction.

以下、本発明にかかる実施例4の色処理装置および色処理方法を説明する。なお、実施例4において、実施例1-3と略同様の構成については、同一の符号を付して、その詳細な説明を省略する場合がある。   Hereinafter, a color processing device and a color processing method according to a fourth embodiment of the present invention will be described. Note that the same reference numerals in the fourth embodiment denote the same parts as in the first to third embodiments, and a detailed description thereof may be omitted.

実施例1-3では、フィルタ処理により入力画像データを局所変化データと大域変化データに分離し、局所変化データを強調する補正処理により、画像の局所的な階調や色度の変化を適切に再現する方法を説明した。実施例4では、より簡易な構成で画像の局所的な階調や色度の変化を適切に再現する方法を説明する。   In Example 1-3, the input image data is separated into the local change data and the global change data by the filter process, and the local gradation and chromaticity changes are appropriately performed by the correction process that emphasizes the local change data. Explained how to reproduce. In the fourth embodiment, a method for appropriately reproducing changes in local gradation and chromaticity of an image with a simpler configuration will be described.

[処理構成]
図17のブロック図により実施例4の色処理装置101の処理構成例を示す。なお、図17に示す色処理装置101は、CPU201が画像処理APを実行することにより実現され、画像処理APにより後述する色処理装置101の処理が実行される。また、図17には示さないが、各部の処理は、メインメモリ202に割り当てられたバッファを使用して実行される。なお、図2に示す構成と同様の構成には同一の符号を付して、詳細説明を省略する。
[Processing configuration]
A block diagram of FIG. 17 shows a processing configuration example of the color processing apparatus 101 of the fourth embodiment. Note that the color processing apparatus 101 shown in FIG. 17 is realized by the CPU 201 executing the image processing AP, and the processing of the color processing apparatus 101 described later is executed by the image processing AP. Although not shown in FIG. 17, the processing of each unit is executed using a buffer allocated to the main memory 202. The same components as those shown in FIG. 2 are denoted by the same reference numerals, and detailed description thereof is omitted.

分離部301は、画像入力部103が入力した画像データから複数の上位ビットで構成される上位ビット画像データを分離する。差分算出部302は、詳細は後述するが、入力画像データが表す色と上位ビット画像データが表す色の差分を示す差分画像データを生成する。実施例4において、上位ビット画像データは「大域変化データ」に相当し、差分画像データは「局所変化データ」に相当する。上位ビット画像データを分離するビット位置は後述する。   The separation unit 301 separates upper bit image data composed of a plurality of upper bits from the image data input by the image input unit 103. The difference calculation unit 302 generates difference image data indicating a difference between the color represented by the input image data and the color represented by the higher-order bit image data, details of which will be described later. In the fourth embodiment, the upper bit image data corresponds to “global change data”, and the difference image data corresponds to “local change data”. The bit position for separating the upper bit image data will be described later.

色処理部303は、色域マッピング部304、画像合成部305、逆変換部306を有し、入力画像データの色変換処理を行う。色域マッピング部304は、画像形成条件に対応する変換情報を変換情報保持部106から取得して、上位ビット画像データを色域マッピングする。画像合成部305は、色域マッピングされた画像データと差分画像データを合成する。逆変換部306は、合成後の画像データを画像出力装置209の例えばデバイスRGB空間の画像データに変換する。   The color processing unit 303 includes a color gamut mapping unit 304, an image composition unit 305, and an inverse conversion unit 306, and performs color conversion processing of input image data. The color gamut mapping unit 304 acquires conversion information corresponding to the image forming conditions from the conversion information holding unit 106, and performs color gamut mapping on the upper bit image data. The image synthesis unit 305 synthesizes the image data subjected to color gamut mapping and the difference image data. The inverse conversion unit 306 converts the combined image data into image data in the device RGB space of the image output device 209, for example.

[処理の流れ]
図18のフローチャートにより実施例4の色処理装置101における色処理を説明する。UI部102は、以降の処理に必要な情報をユーザが入力するためのUIをモニタ211に表示する(S401)。図19によりUIの一例を示す。なお、図4に示すUIの構成と同様の構成には同一の符号を付して、詳細説明を省略する。
[Process flow]
Color processing in the color processing apparatus 101 of the fourth embodiment will be described with reference to the flowchart of FIG. The UI unit 102 displays a UI for the user to input information necessary for subsequent processing on the monitor 211 (S401). FIG. 19 shows an example of the UI. Note that components similar to those of the UI shown in FIG. 4 are denoted by the same reference numerals, and detailed description thereof is omitted.

出力対象の画像データが指示されると(S402)、画像入力部103は、当該画像データを入力する(S403)。画像表示部1002には、出力が指示された画像データ(入力画像データ)が表す画像が表示される。なお、入力画像データはバッファに格納される。   When the image data to be output is designated (S402), the image input unit 103 inputs the image data (S403). The image display unit 1002 displays an image represented by image data (input image data) for which output is instructed. Input image data is stored in a buffer.

ユーザは、ビット数指示部1021を操作して、画像の全体的な階調と色度の変化(大域変化)を表すと考える上位ビット数を指定する。例えば、上位5ビットが大域変化を表すと考える場合、ユーザは、ビット数指示部1021により「5」を指定する。なお、指示入力部1001とビット数指示部1021の操作順は逆でもよく、ユーザは、ビット数指示部1021を操作した後、指示入力部1001を操作してもよい。なお、UI部102は、起動の都度、上位ビット数のデフォルト(例えば、5ビットや6ビット)を表示してもよいし、前回指定されたビット数を表示してもよい。   The user operates the bit number instruction unit 1021 to specify the number of upper bits considered to represent the overall gradation and chromaticity change (global change) of the image. For example, when it is considered that the upper 5 bits represent a global change, the user designates “5” using the bit number instruction unit 1021. Note that the operation order of the instruction input unit 1001 and the bit number instruction unit 1021 may be reversed, and the user may operate the instruction input unit 1001 after operating the bit number instruction unit 1021. Note that the UI unit 102 may display the default number of upper bits (for example, 5 bits or 6 bits) each time it is activated, or may display the number of bits specified last time.

変換ボタン1005または出力ボタン1006が押されると(S404)、分離部301は、UI部102から入力される指定ビット数に従い、入力画像データから上位ビット画像データを分離する(S405)。なお、入力画像データが各色8ビット、指定ビット数が5ビットの場合、例えば、入力画像データを3ビット右シフトした後、3ビット左シフトして上位ビット画像データを作成することができる。また、上位ビット画像データはバッファに格納される。   When the conversion button 1005 or the output button 1006 is pressed (S404), the separating unit 301 separates the upper bit image data from the input image data according to the designated bit number input from the UI unit 102 (S405). When the input image data is 8 bits for each color and the designated bit number is 5 bits, for example, the input image data can be shifted 3 bits to the right and then shifted left by 3 bits to create upper bit image data. The upper bit image data is stored in the buffer.

次に、差分算出部302は、詳細は後述するが、入力画像データと上位ビット画像データから差分画像データを生成する(S406)。続いて、色処理部303は、詳細は後述するが、上位ビット画像データと差分画像データを用いて、画像形成条件に対応する色域マッピング後の画像データを生成する(S407)。この時点で、画像表示部1004に、入力画像データを色域マッピングした画像が表示される。また、出力ボタン1006が押された場合は、出力部111によって色処理後の画像データが画像出力装置209に出力される(S408)。   Next, although the details will be described later, the difference calculation unit 302 generates difference image data from the input image data and the higher-order bit image data (S406). Subsequently, as will be described in detail later, the color processing unit 303 uses the upper bit image data and the difference image data to generate image data after color gamut mapping corresponding to the image forming conditions (S407). At this time, an image obtained by color-gamut mapping the input image data is displayed on the image display unit 1004. If the output button 1006 is pressed, the output unit 111 outputs the color-processed image data to the image output device 209 (S408).

[差分算出部]
差分算出部302は、入力画像データの局所的な階調と色度の変化を表す局所変換データに相当する差分画像データを生成する。そのため、入力画像データと上位ビット画像データをそれぞれデバイス非依存色空間(DIC)の画像データに変換し、DIC上で差分を算出する。
[Difference calculation unit]
The difference calculation unit 302 generates difference image data corresponding to local conversion data representing changes in local gradation and chromaticity of the input image data. Therefore, the input image data and the higher-order bit image data are each converted into device-independent color space (DIC) image data, and the difference is calculated on the DIC.

図20のフローチャートにより差分画像データの生成処理(S406)を説明する。差分算出部302は、入力画像データを取得し(S501)、入力画像データをDICの画像データに変換する(S502)。続いて、上位ビット画像データを取得し(S503)、上位ビット画像データをDICの画像データに変換する(S504)。   Difference image data generation processing (S406) will be described with reference to the flowchart of FIG. The difference calculation unit 302 acquires input image data (S501), and converts the input image data into DIC image data (S502). Subsequently, upper bit image data is acquired (S503), and the upper bit image data is converted into DIC image data (S504).

入力画像データと上位ビット画像データを国際照明委員会(CIE)が規定するsRGB画像データ、DICをCIELAB空間とすると、式(1)に示すように、各画素の画像データがCIE三刺激値XYZに変換さた後、CIELAB値に変換される。   Assuming that the input image data and upper bit image data are sRGB image data specified by the International Commission on Illumination (CIE) and DIC is CIELAB space, the image data of each pixel is CIE tristimulus value XYZ as shown in Equation (1). Then converted to CIELAB values.

次に、差分算出部302は、下式により、CIELAB値に変換された入力画像データと上位ビット画像データから差分画像データを生成する(S505)。なお、生成された差分画像データはバッファに格納される。
D(i, j) = I(i, j) - H(i, j) …(11)
ここで、I(i, j)は入力画像データ、
H(i, j)は上位ビット画像データ、
(i, j)は画素座標。
Next, the difference calculation unit 302 generates difference image data from the input image data converted into the CIELAB value and the higher-order bit image data by the following equation (S505). The generated difference image data is stored in a buffer.
D (i, j) = I (i, j)-H (i, j)… (11)
Where I (i, j) is the input image data,
H (i, j) is the upper bit image data,
(i, j) are pixel coordinates.

[色処理部]
色処理部303は、上位ビット画像データHと差分画像データDを用いて、入力画像データの局所的な階調と色度の変化を適切に再現するための色処理を行う。そのため、色域マッピング部304において、上位ビット画像データHをDIC上で画像形成条件に対応する色域にマッピングする。そして、画像合成部305において、色域マッピング後の上位ビット画像データに差分画像データを合成し、逆変換部306において、合成後の画像データをDICから例えばデバイスRGB空間に変換する。
[Color processing section]
The color processing unit 303 uses the higher-order bit image data H and the difference image data D to perform color processing for appropriately reproducing the local gradation and chromaticity change of the input image data. Therefore, the color gamut mapping unit 304 maps the upper bit image data H to the color gamut corresponding to the image forming condition on the DIC. Then, the image synthesis unit 305 synthesizes the difference image data with the higher-order bit image data after the color gamut mapping, and the inverse conversion unit 306 converts the synthesized image data from DIC into, for example, a device RGB space.

図21のフローチャートにより色処理部303の処理を説明する。色域マッピング部304は、画像形成条件に対応する変換情報を変換情報保持部106から取得する(S601)。図22により変換情報の一例を示す。   The processing of the color processing unit 303 will be described with reference to the flowchart of FIG. The color gamut mapping unit 304 acquires conversion information corresponding to the image forming conditions from the conversion information holding unit 106 (S601). FIG. 22 shows an example of conversion information.

図22に示すように、変換情報は、入力RGBの範囲を各軸ともに例えば9スライスした格子点の入力値(入力RGB値)と、格子点に対応する画像出力装置209の色域内のCIELAB値の関係が記述されたLUTである。なお、変換情報は、入力機器の色域(入力色域)と出力機器の色域(出力色域)をCIELAB空間に変換し、CIELAB空間上で、入力色域と出力色域を対応させる色域圧縮を行うことで、予め作成することができる。なお、色域圧縮方法には既知の方法を用いればよく、説明を省略する。   As shown in FIG. 22, the conversion information includes the input value of the grid point (input RGB value) obtained by, for example, slicing the input RGB range along each axis, for example, and the CIELAB value in the color gamut of the image output device 209 corresponding to the grid point. LUT that describes the relationship of The conversion information is the color that converts the color gamut of the input device (input color gamut) and the color gamut of the output device (output color gamut) to CIELAB space, and associates the input color gamut with the output color gamut in CIELAB space. It can be created in advance by performing area compression. A known method may be used as the color gamut compression method, and the description thereof is omitted.

次に、色域マッピング部304は、上位ビット画像データHを入力し(S602)、取得した変換情報のLUTを参照して、上位ビット画像データHを色域マッピングする(S603)。なお、色域マッピングには補間演算が用いられる。続いて、画像合成部305は、差分画像データDを入力し(S604)、下式により、色域マッピングされた上位ビット画像データH'と差分画像データDを加算処理して合成画像データCを生成する(S605)。
C(i, j) = H'(i, j) + D(i, j) …(12)
Next, the color gamut mapping unit 304 inputs the upper bit image data H (S602), refers to the LUT of the acquired conversion information, and performs color gamut mapping of the upper bit image data H (S603). Note that interpolation calculation is used for color gamut mapping. Subsequently, the image composition unit 305 inputs the difference image data D (S604), and adds the upper bit image data H ′ that has been color gamut mapped and the difference image data D according to the following formula to obtain the composite image data C. Generate (S605).
C (i, j) = H '(i, j) + D (i, j)… (12)

次に、逆変換部306は、画像出力装置209の色域データを例えば変換情報保持部106から取得する(S606)。色域データは、図22に示すLUTと同様の形式を有し、画像出力装置209のデバイスRGB値の格子点と、格子点のRGB値を画像出力装置209に出力して形成したパッチの測色値(CIELAB値)の対応を示す。   Next, the inverse conversion unit 306 acquires the color gamut data of the image output device 209 from, for example, the conversion information holding unit 106 (S606). The color gamut data has the same format as the LUT shown in FIG. 22, and the grid points of the device RGB values of the image output device 209 and the patches formed by outputting the RGB values of the grid points to the image output device 209 are measured. Indicates the correspondence between color values (CIELAB values).

次に、逆変換部306は、色域データを参照して、合成画像データCを画像出力装置209のデバイスRGB値に変換する(S607)。この変換には、補間演算が用いられる。この時点で、画像表示部1004に、入力画像データを色域マッピングした画像が表示される。   Next, the inverse conversion unit 306 refers to the color gamut data and converts the composite image data C into device RGB values of the image output device 209 (S607). Interpolation calculation is used for this conversion. At this time, an image obtained by color-gamut mapping the input image data is displayed on the image display unit 1004.

このように、入力画像データの上位ビットを画像の全域的な階調と色度の変化を表す画像データとして、上位ビット画像データにのみ色処理を施し、画像の局所的な階調と色度の変化成分を差分画像データとして保存する。これにより、周波数変換などの複雑な処理やフィルタ処理を行わずに、短時間に、画像の局所的な階調と色度の変化成分を保存して、色域を圧縮した画像データを得ることができる。   In this way, the upper bits of the input image data are used as image data representing changes in the overall gradation and chromaticity of the image, and only the upper bit image data is subjected to color processing, and the local gradation and chromaticity of the image are processed. Are stored as difference image data. This makes it possible to save the local gradation and chromaticity change components of the image in a short time and to obtain image data with a compressed color gamut without performing complicated processing such as frequency conversion or filtering. Can do.

[変形例]
実施例4においては、DICとしてCIELAB空間を例に説明したが、これに限定されず、例えば、CIE三刺激値XYZやCIELUV空間など他の色空間を用いてもよい。また、CIECAM97、CIECAM97s、CIECAM02のようなカラーアピアランス空間をDICに用いてもよい。
[Modification]
In the fourth embodiment, the CIELAB space has been described as an example of the DIC. However, the present invention is not limited to this, and other color spaces such as CIE tristimulus values XYZ and CIELUV space may be used. Color appearance spaces such as CIECAM97, CIECAM97s, and CIECAM02 may be used for DIC.

また、実施例4においては、色処理部303が画像出力装置209のデバイスRGB信号を出力する例を説明したが、色処理部303が出力する信号は、CMYK、XYZ、CIELABなど、画像を表現できる信号であればどのようなものでもよい。例えば、画像出力装置209がCIELAB信号を入力可能な場合、逆変換部306の処理をスルーパスしてもよい。   In the fourth embodiment, the example in which the color processing unit 303 outputs the device RGB signal of the image output device 209 has been described. However, the signal output by the color processing unit 303 represents an image such as CMYK, XYZ, or CIELAB. Any signal can be used as long as it is possible. For example, when the image output device 209 can input a CIELAB signal, the processing of the inverse conversion unit 306 may be passed through.

また、実施例4においては、上位ビット画像データの色域マッピング後の画像データと差分画像データを合成し、デバイス色信号に変換して出力する例を説明した。デバイス色信号に変換後の処理として、デバイス色信号を平滑化処理する平滑化部307を色処理部303に追加してもよい。平滑化処理は、差分画像データの合成時に発生する可能性がある疑似輪郭(アーチファクト)を低減する効果がある。   In the fourth embodiment, the example in which the image data after the color gamut mapping of the upper bit image data and the difference image data are combined, converted into a device color signal, and output is described. As a process after conversion to the device color signal, a smoothing unit 307 that smoothes the device color signal may be added to the color processing unit 303. The smoothing process has an effect of reducing pseudo contours (artifacts) that may occur when the difference image data is synthesized.

また、上記の各実施例における色処理装置101は、画像出力装置209として、レーザビームプリンタ、インクジェットプリンタ、サーマルプリンタなどに接続可能である。また、それらプリンタに色処理装置101を組み込んだ構成も本発明の範疇である。   Further, the color processing apparatus 101 in each of the above embodiments can be connected to a laser beam printer, an inkjet printer, a thermal printer, or the like as the image output apparatus 209. A configuration in which the color processing apparatus 101 is incorporated in these printers is also within the scope of the present invention.

[その他の実施例]
本発明は、上述の実施形態の一以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける一以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、一以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Examples]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program It can also be realized by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

104 … 分離部、105 … 補正係数取得部、107 … 補正処理部、108 … 合成部、109 … 色処理部   104: Separation unit, 105 ... Correction coefficient acquisition unit, 107 ... Correction processing unit, 108 ... Composition unit, 109 ... Color processing unit

Claims (10)

入力画像データから複数の上位ビットで構成される上位ビット画像データを分離する分離手段と、
前記入力画像データが表す色と前記上位ビット画像データが表す色の差分を差分画像データとして算出する算出手段と、
画像形成条件に対応する変換情報に基づき、前記上位ビット画像データに色処理を施し、前記色処理後の上位ビット画像データと前記差分画像データを合成処理する色処理手段を有し、
前記算出手段は、前記入力画像データと前記上位ビット画像データをデバイス非依存色空間の画像データに変換し、それら画像データの差分を前記差分画像データとして算出する色処理装置。
Separating means for separating upper bit image data composed of a plurality of upper bits from input image data;
Calculating means for calculating a difference between the color represented by the input image data and the color represented by the upper bit image data as difference image data;
Based on the conversion information corresponding to the image forming condition, performing a color process to the upper-bit image data, have a color processing means for synthesizing processing said difference image data with the upper-bit image data after the color processing,
The color processing apparatus , wherein the calculation means converts the input image data and the higher-order bit image data into image data in a device-independent color space, and calculates a difference between the image data as the difference image data .
前記色処理手段は、前記色処理として、前記上位ビット画像データに色域マッピングを施す請求項に記載された色処理装置。 The color processing apparatus according to claim 1 , wherein the color processing unit performs color gamut mapping on the upper bit image data as the color processing. 前記色処理手段は、前記合成処理後の画像データをデバイス色信号に変換する請求項または請求項に記載された色処理装置。 It said color processing means color processing apparatus according to claim 1 or claim 2 for converting the image data after the combining process in the device color signal. 前記色処理手段は、前記デバイス色信号に平滑化処理を施す請求項に記載された色処理装置。 The color processing apparatus according to claim 3 , wherein the color processing unit performs a smoothing process on the device color signal. 前記色処理手段は、前記合成処理として、前記色処理後の上位ビット画像データと前記差分画像データを加算処理する請求項から請求項の何れか一項に記載された色処理装置。 It said color processing means, as the synthesis process, color processing apparatus according to any one of claims 1 to 4 for adding processing said difference image data with the upper-bit image data after the color processing. さらに、前記複数の上位ビットのビット数を示すユーザ指示を入力する手段を有する請求項から請求項の何れか一項に記載された色処理装置。 Furthermore, color processing apparatus according to any one of claims 1 to 5 comprising means for inputting a user instruction indicating the number of bits of the plurality of upper bit. さらに、前記画像形成条件を示すユーザ指示を入力する手段を有する請求項から請求項の何れか一項に記載された色処理装置。 Furthermore, color processing apparatus according to any one of claims 1 to 6 having a means for inputting a user instruction indicating the image forming condition. さらに、前記色処理手段が出力する画像データを前記画像形成条件が示す画像出力装置に出力する手段を有する請求項に記載された色処理装置。 The color processing apparatus according to claim 7 , further comprising means for outputting image data output by the color processing means to an image output apparatus indicated by the image forming conditions. 入力画像データから複数の上位ビットで構成される上位ビット画像データを分離する分離工程と、
前記入力画像データが表す色と前記上位ビット画像データが表す色の差分を差分画像データとして算出する算出工程と
画像形成条件に対応する変換情報に基づき、前記上位ビット画像データに色処理を施し前記色処理後の上位ビット画像データと前記差分画像データを合成処理する色処理工程とを有し、
前記算出工程は、前記入力画像データと前記上位ビット画像データをデバイス非依存色空間の画像データに変換し、それら画像データの差分を前記差分画像データとして算出する色処理方法。
A separation step of separating upper bit image data composed of a plurality of upper bits from input image data ;
A calculation step of calculating a difference between the color represented by the input image data and the color represented by the upper bit image data as difference image data;
Based on the conversion information corresponding to the image forming condition, the upper-bit image data subjected to the color processing, the and a color processing step of the difference image data and the upper-bit image data after the color processing for synthesizing processing,
In the color processing method , the calculating step converts the input image data and the higher-order bit image data into image data in a device-independent color space, and calculates a difference between the image data as the difference image data .
コンピュータを請求項1から請求項の何れか一項に記載された色処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each unit of the color processing device according to any one of claims 1 to 8 .
JP2014237017A 2014-11-21 2014-11-21 Color processing apparatus and method Active JP6320278B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014237017A JP6320278B2 (en) 2014-11-21 2014-11-21 Color processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014237017A JP6320278B2 (en) 2014-11-21 2014-11-21 Color processing apparatus and method

Publications (3)

Publication Number Publication Date
JP2016100786A JP2016100786A (en) 2016-05-30
JP2016100786A5 JP2016100786A5 (en) 2017-04-06
JP6320278B2 true JP6320278B2 (en) 2018-05-09

Family

ID=56077618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014237017A Active JP6320278B2 (en) 2014-11-21 2014-11-21 Color processing apparatus and method

Country Status (1)

Country Link
JP (1) JP6320278B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6408103B1 (en) * 1998-12-31 2002-06-18 Eastman Kodak Company Method for preserving spatial detail and color content when adjusting the tone scale of a digital color image
JP2004153337A (en) * 2002-10-28 2004-05-27 Canon Inc Image processing apparatus
JP2006121530A (en) * 2004-10-22 2006-05-11 Sharp Corp Color conversion apparatus, image forming apparatus, color conversion method and computer program
JP4810090B2 (en) * 2004-12-20 2011-11-09 キヤノン株式会社 Data processing device
JP5034003B2 (en) * 2007-06-25 2012-09-26 オリンパス株式会社 Image processing device
JP2013058861A (en) * 2011-09-07 2013-03-28 Sony Corp Image processor, and method and program for controlling image processor

Also Published As

Publication number Publication date
JP2016100786A (en) 2016-05-30

Similar Documents

Publication Publication Date Title
JP4209439B2 (en) Image processing apparatus, image processing system, image processing method, image processing program, and integrated circuit device
JP4375781B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP5269042B2 (en) Image processing apparatus, image processing method, and lookup table generation method
JP2006197457A (en) Color chart creating method, device, and program, and color conversion definition correcting method
JP2008141237A (en) Color processing apparatus and its method
JP7327957B2 (en) Image display system, method and program
JP6376767B2 (en) Image processing apparatus and image processing method
US9218552B2 (en) Image processing apparatus and image processing method
JP5950756B2 (en) Image processing apparatus and image processing method
JP5025323B2 (en) Color processing apparatus and method
JP6320278B2 (en) Color processing apparatus and method
JP4985162B2 (en) Color gamut generation device, color gamut generation program, and color conversion device
JP2008245024A (en) Generation of lookup table
JP2003289446A (en) Method, apparatus and program for providing color reproduction characteristic
JP5966817B2 (en) Color conversion table creation device and program
JP5074659B2 (en) Color conversion definition creation method, color conversion definition creation device, and color conversion definition creation program
JP5206428B2 (en) Color processing apparatus and program
JP2008148163A (en) Color processing apparatus and method thereof
JP2018133668A (en) Image processing apparatus and adjustment method, and program therefor
JP2008245274A (en) Method and apparatus for regulating color conversion profile
JP6562381B2 (en) Image forming apparatus and program
JP2008245028A (en) Generation of lookup table
JP6583059B2 (en) Color conversion apparatus, color conversion method, and color conversion program
JP2015207915A (en) Image processing apparatus and method thereof
JP2016096434A (en) Color processing device and method for the same

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170302

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180403

R151 Written notification of patent or utility model registration

Ref document number: 6320278

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151