JP2003066539A - Color management system and method in photograph processor - Google Patents

Color management system and method in photograph processor

Info

Publication number
JP2003066539A
JP2003066539A JP2001259988A JP2001259988A JP2003066539A JP 2003066539 A JP2003066539 A JP 2003066539A JP 2001259988 A JP2001259988 A JP 2001259988A JP 2001259988 A JP2001259988 A JP 2001259988A JP 2003066539 A JP2003066539 A JP 2003066539A
Authority
JP
Japan
Prior art keywords
learning
value
color
profile
color management
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001259988A
Other languages
Japanese (ja)
Inventor
Shigeru Daimatsu
繁 大松
Masafumi Yoshioka
理文 吉岡
Kuraji Nitta
庫治 新田
Kouichi Kugo
耕一 久後
Koji Kita
耕次 北
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritsu Koki Co Ltd
Original Assignee
Noritsu Koki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Noritsu Koki Co Ltd filed Critical Noritsu Koki Co Ltd
Priority to JP2001259988A priority Critical patent/JP2003066539A/en
Publication of JP2003066539A publication Critical patent/JP2003066539A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a color management system and a method for a photograph processor and capable of efficiently preparing a profile. SOLUTION: The color management system in the photographing processor for reading out an image formed on a positive film with a scanner 1 and preparing a photographing print by suitable coloring on the basis of the read picture data, is provided with a CCD scanner 1 for reading out a reference chart IT8 expressing a plurality of colors and a profile preparation device 20 for preparing a profile for converting the value of read picture data of each color into an objective reference value. The profile preparation device 20 is constituted of a feedforward hierarchical type neural network 22 based on a reverse propagation method of errors and learning is executed so that an input value approaches a reference value.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、写真フィルムの画
像を読取装置により読み取り、読み取られた画像データ
に基づいて、適切な発色で写真プリントを作成するため
の写真処理装置におけるカラーマネジメントシステム及
び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a color management system and method in a photographic processing device for reading an image on a photographic film by a reading device and producing a photographic print with an appropriate color based on the read image data. Regarding

【0002】[0002]

【従来の技術】かかる写真処理装置は、例えば、現像済
みのポジフィルムに形成されたコマ画像をCCDスキャ
ナ(読取装置に相当する。)により読み取り、読み取っ
た画像データに基づいて、デジタル露光エンジンを用い
てペーパーに画像を焼付露光する。 このペーパーを現
像・乾燥処理することにより、写真プリントを得ること
ができる。
2. Description of the Related Art Such a photographic processing apparatus, for example, reads a frame image formed on a developed positive film by a CCD scanner (corresponding to a reading device) and operates a digital exposure engine based on the read image data. Is used to bake and expose the image. A photographic print can be obtained by developing and drying this paper.

【0003】しかしながら、CCDスキャナにより得ら
れた画像データの値をそのまま用いて写真プリントを作
成したとしても、ポジフィルムに形成されている画像と
比較すると色ずれが生じる。この色ずれは、入力デバイ
ス(CCDスキャナ等)や出力デバイス(デジタル露光
エンジン等)や画像形成媒体(ポジフィルム)の感度特
性が線型関数のように単純な形で与えられないことに原
因がある。すなわち、仮に同じ画像データの値(R,
G,Bの値)を与えたとしても、入力デバイスや出力デ
バイスの感度特性が異なるために、同じ色で表現されな
いからである。
However, even if a photographic print is made by using the value of the image data obtained by the CCD scanner as it is, a color shift occurs when compared with the image formed on the positive film. This color shift is caused by the fact that the sensitivity characteristics of the input device (CCD scanner, etc.), output device (digital exposure engine, etc.), and image forming medium (positive film) cannot be given in a simple form like a linear function. . That is, if the same image data value (R,
This is because even if G and B values are given, they are not represented by the same color because the sensitivity characteristics of the input device and the output device are different.

【0004】そこで、入力デバイスや出力デバイスの色
をできるだけ近づけようとする技術が知られており、こ
の技術をカラーマネジメントと呼んでいる。そこで、写
真処理装置において取り入れられているカラーマネジメ
ントについて、図1により説明する。
Therefore, a technique for making the colors of the input device and the output device as close as possible is known, and this technique is called color management. Therefore, the color management incorporated in the photo processing apparatus will be described with reference to FIG.

【0005】この図1において、入力デバイスとして画
像読取装置が示され、出力デバイスとして画像表示装置
(モニター)と画像印刷装置(プリンター)が示されて
いる。これらの各デバイスが表現できる固有の色が、標
準色域(CIE Lab)ではどの色に該当するのかを
1色1色表わしたテーブル(ルックアップテーブル)を
プロファイルと呼んでいる。このように、標準色域を基
準として各デバイスの特性をプロファイルで表現するこ
とで、適切な色を再現できるようにしている。本発明
は、特に画像読取装置と標準色域との間に介在するプロ
ファイルを作成するためのカラーマネジメントシステム
に関するものである。
In FIG. 1, an image reading device is shown as an input device, and an image display device (monitor) and an image printing device (printer) are shown as output devices. A table (look-up table) representing one color for each color in the standard color gamut (CIE Lab) is called a profile. In this way, by expressing the characteristics of each device with a profile using the standard color gamut as a reference, it is possible to reproduce an appropriate color. The present invention particularly relates to a color management system for creating a profile interposed between an image reading device and a standard color gamut.

【0006】まず、標準色域を表わす標準チャート(キ
ャリブレーション用ターゲット)としてIT8と呼ばれ
るものがある。この標準チャートは、入力カラーターゲ
ット(Color Reflection Targe
t for Input Scanner Calib
ration)という正式名称を有する。 IT8は図
2に示すように、縦軸がA〜Lで横軸が1〜22までの
合計264色に区画された標準チャートである。この標
準チャートを画像読取装置により読み取る。例えば、2
64色のうちのある特定の色を読み取ったときの値が
(Xr,Yr,Zr)であったとする。一方、上記26
4色のそれぞれについては、読み取った場合の基準値
(目標値)が予め設定されている。上記特定の色の基準
値が(Xt,Yt,Zt)であるとすれば、読み取った
値(Xr,Yr,Zr)が基準値(Xt,Yt,Zt)
になるように、テーブル(プロファイル)を作成するの
である。
First, there is a standard chart (IT8) as a standard chart (calibration target) showing a standard color gamut. This standard chart is based on an input color target (Color Reflection Target).
t for Input Scanner Calib
has a formal name. As shown in FIG. 2, IT8 is a standard chart in which the vertical axis is A to L and the horizontal axis is 1 to 22 divided into a total of 264 colors. This standard chart is read by the image reading device. For example, 2
It is assumed that the value when a specific color of the 64 colors is read is (Xr, Yr, Zr). On the other hand, the above 26
For each of the four colors, a reference value (target value) when read is set in advance. If the reference value of the specific color is (Xt, Yt, Zt), the read value (Xr, Yr, Zr) is the reference value (Xt, Yt, Zt).
The table (profile) is created so that

【0007】[0007]

【発明が解決しようとする課題】しかしながら、上記テ
ーブルを作成するのはオペレータの作業が煩雑化し、そ
のための労力も多大であり改善が望まれている。例え
ば、8ビット画像は1670万色もあり、実際にこの1
670万色についてのテーブルを作成することは不可能
である。カラーマネジメントでは、できるだけ少ない情
報ですべての色に付いて適用できるプロファイルを作成
することが重要である。
However, creating the above table complicates the work of the operator, and the labor for that is also great, and improvement is desired. For example, an 8-bit image has 16.7 million colors.
It is impossible to create a table for 6.7 million colors. In color management it is important to create a profile that can be applied for all colors with as little information as possible.

【0008】本発明は上記実情に鑑みてなされたもので
あり、その課題は、プロファイルの作成を効率よく行う
ことのできる写真処理装置のカラーマネジメントシステ
ム及び方法を提供することである。
The present invention has been made in view of the above circumstances, and an object thereof is to provide a color management system and method for a photographic processing apparatus capable of efficiently creating a profile.

【課題を解決するための手段】上記課題を解決するため
本発明に係る写真処理装置のカラーマネジメントシステ
ムは、画像形成媒体に形成された画像を画像読取装置に
より読み取り、読み取られた画像データに基づいて、適
切な発色で写真プリントを作成するための、写真処理装
置におけるカラーマネジメントシステムであって、予め
用意され、複数色が表現された標準チャートを読み取る
前記画像読取装置と、読み取られた各色の画像データの
値を、目標とする基準値に変換するためのプロファイル
を作成するプロファイル作成装置とを備え、前記プロフ
ァイル作成装置は、誤差逆伝播法によるニューラルネッ
トワークにより構成され、入力値を前記基準値に近づけ
るべく学習を行うように構成されていることを特徴とす
るものである。
In order to solve the above-mentioned problems, a color management system of a photographic processing apparatus according to the present invention reads an image formed on an image forming medium by an image reading device, and based on the read image data. A color management system in a photographic processing device for creating photographic prints with appropriate colors, the image reading device reading a standard chart prepared in advance and expressing a plurality of colors, and the read color of each color. A profile creating device for creating a profile for converting a value of image data into a target reference value, wherein the profile creating device is configured by a neural network by an error back propagation method, and an input value is the reference value. It is characterized in that it is configured to perform learning so as to approach.

【0009】この構成によるシステムの作用・効果は、
以下の通りである。まず、画像読取装置により標準チャ
ートを読み取る。この標準チャートとしては、例えば、
IT8が選択される。読み取られた各色の画像データの
値を、目標とする基準値に変換するためのプロファイル
を作成するプロファイル作成装置を備えている。そし
て、このプロファイル作成装置を誤差逆伝播法によるニ
ューラルネットワークにより構成する。ニューラルネッ
トは、生体のニューロンを模擬する人工の素子を用いて
構成され、近年において特に注目されている技術であ
る。
The operation and effect of the system with this configuration are as follows.
It is as follows. First, the standard chart is read by the image reading device. As this standard chart, for example,
IT8 is selected. A profile creation device is created that creates a profile for converting the read image data value of each color into a target reference value. Then, this profile creating device is configured by a neural network by the error back propagation method. The neural network is a technology that is constructed by using an artificial element that imitates a neuron of a living body, and is a technology that has received a great deal of attention in recent years.

【0010】上述のIT8については264色が規定さ
れている。一方、色を8ビットの画像データで表現する
と1670万色になるが、規定されない色に関しては、
ニューラルネットにより推定することができる。
264 colors are specified for the above-mentioned IT8. On the other hand, when colors are represented by 8-bit image data, the number of colors is 16.7 million.
It can be estimated by a neural network.

【0011】ここで、ニューラルネットの入力値として
(R,G,B)や(X,Y,Z)等の値を選択し、これ
ら入力値が基準値に近づくように学習をさせる。本発明
者らは、鋭意検討した結果、ニューラルネットワークを
用いて、従来行っていたルックアップテーブルによるプ
ロファイルと同等レベルの品質を確保できることを確か
めることができた。また、ニューラルネットワークによ
る学習は、ソフトウェアで自動的に行わせることができ
る。よって、テーブルを作成するものに比べると、プロ
ファイル作成を効率よく行うことができる。その結果、
プロファイルの作成を効率よく行うことのできる写真処
理装置のカラーマネジメントシステムを提供することが
できる。本発明の好適な実施形態として、前記プロファ
イル作成装置は、前記基準値に対する出力値の誤差値を
前記基準値で除算した値を誤差率として定義しており、
前記誤差率に基づいて学習を行うように構成されている
ものがあげられる。色ずれについては、数値上の誤差の
大きさと、見た目の誤差の大きさとは必ずしも一致しな
い。特に、明度の低い色については、データとしての数
値が小さく、誤差の影響を受けやすい。従って、誤差の
大きさが全く同じ値であったとしても、明度の高い色よ
りも明度の低い色のほうが見た目の色ずれが大きい。そ
こで、基準値に対する出力値の誤差値を基準値で除算し
た値を誤差率として定義し、この誤差率に基づいて学習
を行うようにする。これにより、明度の低い色について
も、明度の高い色と同等に学習を収束させることができ
る。
Here, values such as (R, G, B) and (X, Y, Z) are selected as input values of the neural network, and learning is performed so that these input values approach the reference value. As a result of diligent study, the present inventors have been able to confirm that a neural network can be used to secure the same level of quality as that of a profile based on a lookup table that has been conventionally performed. Further, learning by the neural network can be automatically performed by software. Therefore, profile creation can be performed more efficiently than when creating a table. as a result,
It is possible to provide a color management system for a photographic processing device that can efficiently create a profile. As a preferred embodiment of the present invention, the profile creation device defines a value obtained by dividing an error value of an output value with respect to the reference value by the reference value as an error rate,
An example is one configured to perform learning based on the error rate. Regarding the color misregistration, the magnitude of the numerical error does not necessarily match the magnitude of the apparent error. In particular, for a color with low lightness, the numerical value as data is small and it is easily affected by an error. Therefore, even if the magnitudes of the errors are exactly the same, the color shift with lower lightness is larger than the color shift with higher lightness. Therefore, a value obtained by dividing the error value of the output value with respect to the reference value by the reference value is defined as an error rate, and learning is performed based on this error rate. As a result, learning can be converged in the same way as in the case of a color having a low lightness, as in the case of a color having a high lightness.

【0012】本発明の別の好適な実施形態として、前記
学習を行うにあたり、入力値を色度座標上で複数のカテ
ゴリに分類し、前記各カテゴリに対して前記学習を行う
ように構成されているものがあげられる。
As another preferred embodiment of the present invention, in performing the learning, the input value is classified into a plurality of categories on chromaticity coordinates, and the learning is performed for each of the categories. I can give you what you have.

【0013】例えば、IT8を標準チャートとして用い
る場合、264色のすべてについて一度に学習すると、
出力値と基準値との誤差が大きくなる。従って、学習が
収束するのに時間がかかる恐れがある。そこで、色度座
標上(例えば、xy色度座標上)で複数のカテゴリに分
類し、各カテゴリについて学習を行うようにする。これ
により、学習を効率よく行うことができる。
For example, when IT8 is used as a standard chart, if all 264 colors are learned at once,
The error between the output value and the reference value becomes large. Therefore, it may take time for the learning to converge. Therefore, the chromaticity coordinates (for example, xy chromaticity coordinates) are classified into a plurality of categories, and learning is performed for each category. Thereby, learning can be performed efficiently.

【0014】本発明の更に別の好適な実施形態として、
前記各カテゴリは、境界部分が重複して設定されてお
り、境界付近の入力値を重複して学習させ、両カテゴリ
における学習結果を所定の比率で平均化するように構成
したものがあげられる。
As still another preferred embodiment of the present invention,
In each of the above-mentioned categories, a boundary portion is set to overlap, input values near the boundary are overlapped and learned, and learning results in both categories are averaged at a predetermined ratio.

【0015】複数のカテゴリに分類する場合に、各カテ
ゴリの境界部分を重複させないで学習させると、カテゴ
リの境界付近で学習結果に不連続性が発生する恐れがあ
る。そこで、カテゴリの境界部分を重複して設定する。
そして、この重複部分の境界付近の入力値は重複して学
習させる。重複した両カテゴリにおける学習結果は所定
の比率で平均化させる。これにより、カテゴリの境界付
近での学習結果の連続性を維持することができる。
In the case of classifying into a plurality of categories, if learning is performed without overlapping the boundary part of each category, there is a possibility that discontinuity occurs in the learning result near the boundary of the category. Therefore, the boundary portion of the category is set redundantly.
Then, the input values in the vicinity of the boundary of this overlapping portion are learned by overlapping. The learning results in both overlapping categories are averaged at a predetermined ratio. This makes it possible to maintain the continuity of learning results near the boundaries of categories.

【0016】本発明の更に別の好適な実施形態として、
前記所定の比率は、前記色度座標上で彩度0の点を中心
とする円の半径方向の長さ、 又は、中心角の大きさに
基づいて設定されているものがあげられる。彩度0の点
を中心とする円の半径方向は彩度方向に沿うものであ
り、中心角の大きさは円の円周方向に沿った角度の大き
さ、すなわち、色相方向に沿った大きさに対応する。よ
って、これら半径方向の長さや中心角の大きさに基づい
て、所定の比率を設定することで、精度よく学習結果の
連続性を維持することができる。
As still another preferred embodiment of the present invention,
The predetermined ratio may be set based on the radial length of a circle centered on the point of saturation 0 on the chromaticity coordinate or the size of the central angle. The radial direction of the circle centered on the point of saturation 0 is along the saturation direction, and the size of the central angle is the size of the angle along the circumferential direction of the circle, that is, the size along the hue direction. Corresponding to Therefore, by setting a predetermined ratio based on the length in the radial direction and the size of the central angle, it is possible to maintain the continuity of the learning result with high accuracy.

【0017】[0017]

【発明の実施の形態】本発明にかかるカラーマネジメン
トシステムが好適に用いられる写真処理装置を図3によ
り説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A photographic processing apparatus in which a color management system according to the present invention is preferably used will be described with reference to FIG.

【0018】図3において、画像読取装置として機能す
るCCDスキャナ1が設けられている。CCDスキャナ
1は、画像形成媒体であるポジフィルムF(写真フィル
ムの一例)の画像を読み取るものであり、読み取り用光
源2から発せられた光がポジフィルムFを透過した透過
光の強度を測定することで、画像データを取得すること
ができる。なお、ポジフィルムFは搬送ローラ3により
一定速度で搬送されるようになっており、1ラインずつ
画像データを取り込んでいくように構成している。従っ
て、CCDスキャナ1は、ラインセンサーであるが、こ
れに代えてエリアセンサーでもよい。
In FIG. 3, a CCD scanner 1 functioning as an image reading device is provided. The CCD scanner 1 reads an image on a positive film F (an example of a photographic film) which is an image forming medium, and measures the intensity of transmitted light, which is the light emitted from the reading light source 2 and transmitted through the positive film F. Thus, the image data can be acquired. The positive film F is conveyed by the conveying roller 3 at a constant speed, and the image data is taken in line by line. Therefore, although the CCD scanner 1 is a line sensor, it may be an area sensor instead.

【0019】画像処理部2は、取得された画像データに
対して処理を施して露光エンジン3に転送する。この画
像処理部2に、本発明に係るプロファイル作成装置20
として機能する部分が備えられている。
The image processing section 2 processes the acquired image data and transfers it to the exposure engine 3. This image processing unit 2 is provided with a profile creation device 20 according to the present invention.
It is equipped with a part that functions as.

【0020】露光エンジン3は、露光光をペーパーP
(写真感光材料に相当する。)に照射することにより、
ペーパーPの乳剤面に画像を焼付露光する。ペーパーP
は、ペーパーマガジン4にロール状に収容されている。
ペーパーマガジン4から引き出されたペーパーPは、ペ
ーパーカッター5によりプリントサイズに切断される。
プリントサイズに切断されたペーパーPは、露光搬送ロ
ーラ6により一定速度で搬送され、露光エンジン3によ
り順次画像が焼付露光されていく。画像が焼付露光され
たペーパーPは、現像処理部7及び乾燥処理部8にて所
定の処理が施され、写真プリントが作成される。
The exposure engine 3 outputs the exposure light to the paper P.
By irradiating (corresponding to a photographic light-sensitive material),
An image is printed and exposed on the emulsion side of the paper P. Paper P
Are stored in a roll shape in the paper magazine 4.
The paper P pulled out from the paper magazine 4 is cut into a print size by the paper cutter 5.
The paper P cut into the print size is conveyed at a constant speed by the exposure conveyance roller 6, and the image is sequentially printed and exposed by the exposure engine 3. The paper P on which the image is printed and exposed is subjected to predetermined processing in the development processing section 7 and the drying processing section 8 to produce a photographic print.

【0021】また、写真処理装置内の各部の制御を行う
コントローラ9が設けられている。コントローラ9に
は、各種のデータを入力するキーボード10と、読み取
った画像の表示等を行うモニター11とが接続されてい
る。
Further, a controller 9 for controlling each section in the photo processing apparatus is provided. A keyboard 10 for inputting various data and a monitor 11 for displaying a read image and the like are connected to the controller 9.

【0022】<プロファイル作成装置について>次に、
本発明のカラーマネジメントシステムで用いられるプロ
ファイル作成装置について説明する。図1で既に説明し
たように、CCDスキャナの感度特性を表わすプロファ
イルを作成する必要がある。このプロファイルを誤差逆
伝播法によるフィードフォワード階層型ニューラルネッ
トワークを用いて作成する。ニューラルネットは、生体
のニューロンを模擬する人工の素子を用いて構成され、
近年において特に注目されている技術である。ニューラ
ルネットワークの構成を図4に概念的に示す。
<Regarding Profile Creating Device> Next,
A profile creation device used in the color management system of the present invention will be described. As already described in FIG. 1, it is necessary to create a profile representing the sensitivity characteristic of the CCD scanner. This profile is created using a feedforward hierarchical neural network based on the backpropagation method. A neural network is constructed using artificial elements that simulate the neurons of a living body.
This is a technology that has received a great deal of attention in recent years. The structure of the neural network is conceptually shown in FIG.

【0023】階層型とは、入力層と出力層の間に任意の
個数の中間層が存在するネットワークをいう。図例では
2つの中間層が示されている。また、フィードフォワー
ドとは、同一層内のユニット間の結合がなく、すべての
ユニットは1つ前の層からのみ入力を受け取り、次の層
へのみ出力を送り出すことのできるネットワークをい
う。すなわち、 信号が入力側から出力側へと1方向に
流れていくように構成したものである。誤差逆伝播法と
は、フィードフォワード階層型ニューラルネットワーク
の学習方法の1つである。すなわち、 ネットワークを
構成するユニットの結合重みやしきい値の値を変化させ
ることにより、入力値と出力値の関係を変化させるもの
である。ネットワーク内部のパラメータ(結合重みとし
きい値)に適当な初期値を与えた上で、入出力の誤差が
小さくなるように、パラメータの微小修正を繰り返す。
この繰り返し処理の結果、出力値が基準値に収束する
(近づく)ように学習を行う。
The hierarchical type refers to a network in which an arbitrary number of intermediate layers are present between the input layer and the output layer. Two intermediate layers are shown in the illustrated example. Feedforward is a network in which there is no coupling between units in the same layer and all units can receive input only from the previous layer and send output only to the next layer. That is, the signal is configured to flow in one direction from the input side to the output side. The error back-propagation method is one of learning methods for a feedforward hierarchical neural network. That is, the relationship between the input value and the output value is changed by changing the connection weight or the threshold value of the units forming the network. Appropriate initial values are given to parameters (coupling weights and threshold values) inside the network, and then small adjustments to the parameters are repeated so that the input / output error becomes small.
As a result of this iterative process, learning is performed so that the output value converges (approaches) to the reference value.

【0024】また、本発明において説明する色データの
取り扱いに関して説明する。CCDスキャナ1により取
り込まれた画像データは(B,G,R)の各値で表現す
ることができる。この(B,G,R)の各値を人間の目
で見た感度で表現するため、(X,Y,Z)の各値を用
いることがある。ここで、(B,G,R)と(X,Y,
Z)の間には、次式1,2のような関係がある。
The handling of color data described in the present invention will be described. The image data captured by the CCD scanner 1 can be represented by each value of (B, G, R). In order to express each value of (B, G, R) by the sensitivity seen by human eyes, each value of (X, Y, Z) may be used. Here, (B, G, R) and (X, Y,
There is a relationship between Z) as in the following equations 1 and 2.

【0025】[0025]

【数1】 [Equation 1]

【数2】 また、XYZで表現できない物体の色を表現するため
に、小文字のxyという数量が使用される。これは
(X,Y,Z)を合計すると1になる比率で表わし、そ
のうちzを省略したものである。 このxyによる色度
座標を図5に示し、これはCIE xy色度図と呼ばれ
るものである。この色度図は釣鐘状であり、これを真円
形状に補正したのが、図6に示されるCIE Lab色
度図である。
[Equation 2] Also, in order to represent the color of an object that cannot be represented in XYZ, the lowercase quantities xy are used. This is represented by a ratio in which (X, Y, Z) is 1 when summed, and z is omitted. The xy chromaticity coordinates are shown in FIG. 5, which is called the CIE xy chromaticity diagram. The chromaticity diagram has a bell shape, and the CIE Lab chromaticity diagram shown in FIG. 6 is obtained by correcting the bell shape.

【0026】次に、図7により画像処理部2のブロック
構成を説明する。CCDスキャナ1は、本来的には画像
形成媒体の画像を読み取るものであるが、ニューラルネ
ットワークによる学習を行うに際しては、標準チャート
IT8の画像を読み取る。標準チャートIT8は標準色
域を表わすものであり、図2に示すように264色の色
が表現されている。変換部21は、CCDスキャナ1に
より読み取った画像データの(B,G,R)を(X,
Y,Z)に変換する。さらに、この(X,Y,Z)から
3乗根である(X1/3 ,Y1/3 ,Z1/3 )を演算する。
なお、便宜上(X1/3 ,Y1/3 ,Z1/3 )を(X,Y,
Z)1/3 と表現する。3乗根した値を使用するのは、人
間の目の感度曲線とよくマッチングするからである。ポ
ジフィルムの場合は、3乗根した値がよくマッチングす
ると言われている。
Next, the block configuration of the image processing unit 2 will be described with reference to FIG. The CCD scanner 1 originally reads the image on the image forming medium, but reads the image of the standard chart IT8 when performing learning by the neural network. The standard chart IT8 represents a standard color gamut, and represents 264 colors as shown in FIG. The conversion unit 21 converts (B, G, R) of the image data read by the CCD scanner 1 into (X,
Y, Z). Further, a cube root (X 1/3 , Y 1/3 , Z 1/3 ) is calculated from this (X, Y, Z).
For convenience, (X 1/3 , Y 1/3 , Z 1/3 ) is replaced by (X, Y,
Z) Expressed as 1/3 . The value of the cube root is used because it matches well with the sensitivity curve of the human eye. In the case of a positive film, it is said that the values obtained by raising the cube root match well.

【0027】なお、変換部21を設けずに、(B,G,
R)の画像データをそのままニューラルネットワーク2
2に入力し、ニューラルネットワーク22の内部で
(X,Y,Z)への変換と3乗根への変換の処理を行わ
せるようにしても良い。
It should be noted that (B, G,
R) image data as it is in the neural network 2
2 may be input to the inside of the neural network 22 so that the conversion to (X, Y, Z) and the conversion to the cube root are performed.

【0028】ニューラルネットワーク22は、3入力3
出力のフィードフォワード階層型ニューラルネットワー
クである。入力値も出力値も(X,Y,Z)1/3 で表現
される。 一方、標準チャートIT8に表現される26
4色については、それぞれ基準値(目標値あるいは、教
師値ともいう。)が予め設定されている。この基準値
(X,Y,Z)1/3 と出力値(X,Y,Z)1/3 の差に
基づいて、誤差逆伝播法による学習を行うようにしてい
る。
The neural network 22 has 3 inputs and 3 inputs.
It is an output feedforward hierarchical neural network. Both the input value and the output value are expressed by (X, Y, Z) 1/3 . On the other hand, 26 represented in the standard chart IT8
A reference value (also called a target value or a teacher value) is preset for each of the four colors. Based on the difference between the reference value (X, Y, Z) 1/3 and the output value (X, Y, Z) 1/3 , learning by the error back propagation method is performed.

【0029】3乗演算部23は、(X,Y,Z)1/3
3乗して、元の(X,Y,Z)に戻す演算を行う。変換
部24は、(X,Y,Z)を(B,G,R)に変換す
る。さらにγ補正部25にてγ補正を行い、この画像デ
ータを露光エンジンに転送する。
The cube operation unit 23 performs the operation of raising (X, Y, Z) 1/3 to the cube and returning it to the original (X, Y, Z). The conversion unit 24 converts (X, Y, Z) into (B, G, R). Further, γ correction is performed by the γ correction unit 25, and this image data is transferred to the exposure engine.

【0030】<ニューラルネットワークによる学習>次
に,ニューラルネットワーク22による学習に関して詳
細に説明する。まず、CCDスキャナ1により標準チャ
ートIT8を読み取る。 なお、この標準チャートIT
8は規格で定められているものである。例えば、ANS
I規格に定められている。既に説明したように、標準チ
ャートIT8に表わされている264色は、それぞれ基
準値が予め設定されている。この基準値データは、画像
処理部2内の記憶装置に予め入力しておく必要がある。
また、この基準値は(X,Y,Z)の値として与えられ
ている。なお、本実施形態では3乗根した値で評価を行
うため、(X,Y,Z)1/3 の値を予め記憶装置に入力
して記憶させておく。
<Learning by Neural Network> Next, learning by the neural network 22 will be described in detail. First, the standard chart IT8 is read by the CCD scanner 1. In addition, this standard chart IT
8 is defined by the standard. For example, ANS
It is defined in the I standard. As described above, the reference value is preset for each of the 264 colors shown in the standard chart IT8. This reference value data needs to be input to the storage device in the image processing unit 2 in advance.
Moreover, this reference value is given as a value of (X, Y, Z). Note that in the present embodiment, since the evaluation is performed with the value rooted to the third power, the value of (X, Y, Z) 1/3 is input and stored in the storage device in advance.

【0031】次に、ニューラルネットワーク22に
(X,Y,Z)1/3 又は(R,G,B)を入力して学習
を行うが、標準チャートIT8に表現される264色に
関して、一度に学習すると計算量が膨大となり学習時間
がかかる。そこで、本発明においては、264色につい
て一度に学習するのではなく、10個のカテゴリ(=グ
ループ)に分割し、各カテゴリごとに学習を行うように
している。これについて説明する。
Next, learning is carried out by inputting (X, Y, Z) 1/3 or (R, G, B) to the neural network 22, and the learning is performed at once for the 264 colors represented in the standard chart IT8. When learning, the amount of calculation becomes enormous and learning takes time. Therefore, in the present invention, instead of learning the 264 colors at once, it is divided into 10 categories (= groups) and learning is performed for each category. This will be described.

【0032】図5のCIE xy色度図にて、各カテゴ
リをxy座標を使用して表わすと、下記のようになる。
In the CIE xy chromaticity diagram of FIG. 5, each category is expressed using xy coordinates as follows.

【0033】 カテゴリ 0:x<(1/3) 4x−1<y<(1/2)x+(1/6) 1:x<(1/3) x<y<−x+(2/3) 2:x<(1/3),y>(1/3) x≧(1/3),2x−(1/3)<y 3:x≧(1/3) (1/2)x+(1/6)<y 4:x≧(1/3) −(1/20)x+(7/20)<y<x 5:x≧(1/3) −x+(2/3)<y<(1/10)x+(3/10) 6:x≧(1/3) y<−(1/2)x+(1/2) 7:x≧(1/3),y<−(5/2)x+7/6 x<(1/3),y<(23/10)x−(13/30) 8:(x−(1/3))2 +(y−(1/3))2 ≦0.00006 9:(x−(1/3))2 +(y−(1/3))2 ≦0.00004 以上に示されるカテゴリを図6のCIE Labで表現
すると、以下のように示される。なお、角度表示は(x
=1/3,y=1/3)の点(彩度が0の点)を原点と
して表示するものである。
Category 0: x <(1/3) 4x−1 <y <(1/2) x + (1/6) 1: x <(1/3) x <y <−x + (2/3) 2: x <(1/3), y> (1/3) x ≧ (1/3), 2x− (1/3) <y 3: x ≧ (1/3) (1/2) x + ( 1/6) <y 4: x ≧ (1/3) − (1/20) x + (7/20) <y <x 5: x ≧ (1/3) −x + (2/3) <y < (1/10) x + (3/10) 6: x ≧ (1/3) y <− (1/2) x + (1/2) 7: x ≧ (1/3), y <− (5 / 2) x + 7/6 x <(1/3), y <(23/10) x− (13/30) 8: (x− (1/3)) 2 + (y− (1/3)) 2 ≦ 0.00006 9: (x− (1/3)) 2 + (y− (1/3)) 2 ≦ 0.00004 The categories shown above are illustrated. When expressed in CIE Lab of No. 6, it is shown as follows. The angle display is (x
= 1/3, y = 1/3) (point of saturation 0) is displayed as the origin.

【0034】 カテゴリ 0:206.6度〜256.0度 (幅 50.0度) 1:135.0度〜225.0度 (幅 90.0度) 2: 63.4度〜180.0度 (幅116.0度) 3: 26.6度〜 90.0度 (幅 63.4度) 4: −2.9度〜 45.0度 (幅 47.9度) 5:−45.0度〜 5.7度 (幅 50.7度) 6:270.0度〜333.4度 (幅 63.4度) 7:246.5度〜291.8度 (幅 45.3度) 8:半径0.00006内 9:半径0.00004内 以上のように、各カテゴリごとにニューラルネットワー
クを適用して学習を行う。これにより、学習を早く、
かつ、 精度よく行うことができるようになる。
Category 0: 206.6 degrees to 256.0 degrees (width 50.0 degrees) 1: 135.0 degrees to 225.0 degrees (width 90.0 degrees) 2: 63.4 degrees to 180.0 Degree (width 116.0 degrees) 3: 26.6 degrees to 90.0 degrees (width 63.4 degrees) 4: -2.9 degrees to 45.0 degrees (width 47.9 degrees) 5: -45. 0 degree-5.7 degree (width 50.7 degree) 6: 270.0 degree-333.4 degree (width 63.4 degree) 7: 246.5 degree-291.8 degree (width 45.3 degree) 8: Within radius 0.00006 9: Within radius 0.00004 As described above, learning is performed by applying the neural network to each category. This speeds up learning
And, it will be possible to do it with high accuracy.

【0035】また、上記説明したカテゴリは、領域の面
積が均等ではなくばらつきがある。CIE Lab色度
座標上で表現したカテゴリの幅を見ると分かりやすい
が、各カテゴリの幅は同じではない。これは標準チャー
トIT8の264色を10個のカテゴリに分割するにあ
たり、各カテゴリにほぼ同じ数の色(パッチ)が入るよ
うに調整しているからである。これにより、各カテゴリ
の学習時間も均等化させることができ、結果として、学
習時間を短縮できると考えられるからである。
Further, in the categories described above, the area of the region is not uniform but varies. It is easy to understand the width of the categories expressed on the CIE Lab chromaticity coordinates, but the widths of the categories are not the same. This is because when the 264 colors of the standard chart IT8 are divided into 10 categories, it is adjusted so that each category has approximately the same number of colors (patches). This is because the learning time of each category can be equalized, and as a result, the learning time can be shortened.

【0036】さらに、各カテゴリは完全に領域が分断さ
れているのではなく、境界部分が重複して設定されてい
る。これは、重複部分を設定せずに、カテゴリを設定す
ると、カテゴリとカテゴリの境界付近で学習結果に不連
続性が生じるからである。そこで、カテゴリに重複部分
を設定して、重複部分(境界付近)の色に関しては、両
方のカテゴリで学習するようにしている。また、両カテ
ゴリにおける学習結果は、所定の比率で平均化(混合)
するようにしている。これを図8により説明する。カテ
ゴリ(1)とカテゴリ(2)の両方に属するデータにつ
いては、彩度0の点(円の中心)から見た角度θ(中心
角)に基づいて混合比が設定される。この点に関して説
明する。なお、円の半径方向は彩度方向に沿うものであ
る。また、中心角の方向は、円周方向に沿う方向であ
り、色相方向に沿うものである。
Further, in each category, the area is not completely divided, but the boundary portion is set to overlap. This is because if the categories are set without setting the overlapping part, discontinuity occurs in the learning result near the boundaries between the categories. Therefore, the overlapping part is set in the category, and the colors of the overlapping part (near the boundary) are learned in both categories. The learning results in both categories are averaged (mixed) at a predetermined ratio.
I am trying to do it. This will be described with reference to FIG. For data belonging to both category (1) and category (2), the mixture ratio is set based on the angle θ (center angle) viewed from the point of saturation 0 (the center of the circle). This point will be described. The radius direction of the circle is along the saturation direction. Further, the direction of the central angle is the direction along the circumferential direction and the hue direction.

【0037】まず、カテゴリ(1)の範囲はθ1a<θ<
θ1bとする。そして、ニューラルネットによる学習を行
い、カテゴリ(1)での出力が、d1 =d1 (r,θ)
で得られたとする。また、カテゴリ(2)の範囲をθ2a
<θ<θ2bとする。そして、ニューラルネットによる学
習を行い、カテゴリ(2)での出力が、d2 =d2
(r,θ)で得られたとする。この場合において、d1
とd2 を混合する比率を、(1−t):t で混合する
ものと考えると、 t=(θ−θ2a)/(θ1b−θ) となるようにtを定める。これにより、カテゴリ(1)
とカテゴリ(2)の出力を連続的につなげることができ
る。
First, the range of category (1) is θ 1a <θ <
Set to θ 1b . Then, learning is performed by the neural network, and the output in category (1) is d 1 = d 1 (r, θ)
Suppose that it was obtained in. In addition, the range of category (2) is θ 2a
<Θ <θ 2b . Then, learning is performed by the neural network, and the output in category (2) is d 2 = d 2
It is assumed that it is obtained by (r, θ). In this case, d 1
Assuming that the mixing ratio of (1) and (d 2 ) is (1−t): t, t is determined so that t = (θ−θ 2a ) / (θ 1b −θ). As a result, category (1)
And the output of category (2) can be continuously connected.

【0038】一方、カテゴリ(8)(9)に属する、彩
度の低いデータに関しては、円の半径方向に沿った大き
さに基づいて混合比を決定することができる。例えば、
半径の大きさの比に従って、平均化することができる。
このように平均化することにより、学習結果の不連続性
をなくすことができる。
On the other hand, with respect to the low saturation data belonging to the categories (8) and (9), the mixture ratio can be determined based on the size of the circle in the radial direction. For example,
It can be averaged according to the ratio of the radius magnitudes.
By averaging in this way, discontinuity in the learning result can be eliminated.

【0039】図9にカテゴリ境界付近の重複学習がある
場合とない場合との結果を比較して示す。図9の上は、
カテゴリ境界線付近の重複学習がない場合の結果であ
り、カテゴリの境界において不連続性が見られる。一
方、図9の下は、カテゴリ境界付近の重複学習がある場
合の結果であり、学習結果に連続性が見られることがわ
かる。
FIG. 9 shows a comparison of the results with and without overlap learning near the category boundary. The top of FIG.
This is the result when there is no overlap learning near the category boundary, and discontinuity is seen at the category boundary. On the other hand, the lower part of FIG. 9 shows the results when there is overlapping learning near the category boundaries, and it can be seen that the learning results show continuity.

【0040】ニューラルネットワーク22にデータを入
力すると、全く学習をしていない最初に出力されるデー
タは、入力されるデータと同じである。この出力された
データ出力値と基準値とを比較するわけであるが、本発
明においては、誤差率という考えを導入して学習を行っ
ている。誤差率は、次の式で計算される。
When data is input to the neural network 22, the first output data which has not been learned at all is the same as the input data. The output data output value and the reference value are compared with each other. In the present invention, learning is performed by introducing the concept of an error rate. The error rate is calculated by the following formula.

【0041】誤差率=(基準値−出力値)/基準値 つまり、単なる(基準値−出力値)による相対的な誤差
よりも、絶対的な誤差として表現しようとするものであ
る。色ずれについては、数値上の誤差の大きさと、見た
目の誤差の大きさとは必ずしも一致しない。特に、明度
の低い色については、データとしての数値が小さく、誤
差の影響を受けやすい。従って、誤差の大きさが全く同
じ値であったとしても、明度の高い色よりも明度の低い
色のほうが見た目の色ずれが大きい。そこで、上記のよ
うに誤差率を定義し、この誤差率に基づいて学習を行う
ようにする。これにより、明度の低い色についても、明
度の高い色と同等に学習を収束させることができる。
Error rate = (reference value-output value) / reference value In other words, the error rate is expressed as an absolute error rather than a relative error due to a simple (reference value-output value). Regarding the color misregistration, the magnitude of the numerical error does not necessarily match the magnitude of the apparent error. In particular, for a color with low lightness, the numerical value as data is small and it is easily affected by an error. Therefore, even if the magnitudes of the errors are exactly the same, the color shift with lower lightness is larger than the color shift with higher lightness. Therefore, the error rate is defined as described above, and learning is performed based on this error rate. As a result, learning can be converged in the same way as in the case of a color having a low lightness, as in the case of a color having a high lightness.

【0042】誤差率に基づいて学習を行うものである
が、本発明においては、既に説明したように誤差逆伝播
法に基づいた学習を行う。ここで出力層から逆伝播する
にあたり、誤差率に応じた操作を行うようにしている。
実際には、許容値を予め決めており、誤差率がそれを超
えていない場合は、ユニット結合荷重の更新への影響を
減らすために、1/2倍した後に逆伝播させる。
Although learning is performed based on the error rate, in the present invention, learning is performed based on the error back propagation method as already described. Here, when the back propagation is performed from the output layer, an operation according to the error rate is performed.
In practice, the allowable value is determined in advance, and when the error rate does not exceed it, it is halved and then propagated back to reduce the influence on the update of the unit coupling weight.

【0043】以上のようにニューラルネットワーク22
を用いて、出力値は所定のレベルに到達するまで学習を
行う。学習結果を確かめるには、次のような手順を行
う。
As described above, the neural network 22
Is used to perform learning until the output value reaches a predetermined level. To check the learning result, follow the procedure below.

【0044】まず、学習した結果のデータを使用してプ
リントP1を作成する。この画像データは、ニューラル
ネットワーク22から出力された(X,Y,Z)1/3
3乗演算部23にて3乗した(X,Y,Z)を演算す
る。 これを更に変換部24にて(B,G,R)の画像
データに変換する。これをγ補正部25にてγ補正した
のち、露光エンジンに転送し画像をペーパーに焼付露光
することで写真プリントP1を得る。一方、基準値
(X,Y,Z)1/3 をそのまま使用して、同じように3
乗演算、(R,G,B)変換、γ補正を行い、写真プリ
ントP2を得る。この写真プリントP1とP2を比較す
ることで学習結果を確認することができる。本発明者ら
は、実際に写真プリントP1とP2を作成して比較して
みた結果、人間の目で見た限りにおいては、区別がつか
ないほど一致度が高いことを確認することができた。す
なわち、 ニューラルネットワーク22による学習が十
分に効果があり、実用的なものであることを確認するこ
とができた。
First, the print P1 is created using the learned data. With this image data, (X, Y, Z) 1/3 output from the neural network 22 is cubed by the cube calculation unit 23 to calculate (X, Y, Z). This is further converted by the conversion unit 24 into (B, G, R) image data. This is γ-corrected by the γ-correction unit 25, then transferred to the exposure engine and the image is printed and exposed on the paper to obtain the photographic print P1. On the other hand, using the standard value (X, Y, Z) 1/3 as it is,
Multiply operation, (R, G, B) conversion, and γ correction are performed to obtain a photographic print P2. The learning result can be confirmed by comparing the photographic prints P1 and P2. As a result of actually making and comparing the photographic prints P1 and P2, the present inventors were able to confirm that the degree of coincidence is indistinguishable as far as human eyes can see. . That is, it was confirmed that the learning by the neural network 22 was sufficiently effective and practical.

【0045】<別実施形態> (1)本実施形態では、(B,G,R)を(X,Y,
Z)に変換しているがこれに限定されるものではない。
また、標準チャートもIT8以外のものを使用しても良
い。また、(X,Y,Z)1/3 により学習を行っている
が、これに限定されるものではない。例えば、対数圧縮
した数値を用いて学習しても良い。
<Other Embodiments> (1) In this embodiment, (B, G, R) is replaced by (X, Y,
However, the present invention is not limited to this.
Also, as the standard chart, a chart other than IT8 may be used. Further, although learning is performed by (X, Y, Z) 1/3 , the learning is not limited to this. For example, learning may be performed using a logarithmically compressed numerical value.

【0046】(2)画像形成媒体としてはポジフィルム
に限定されるものではなく、その他のネガフィルム等の
写真フィルムや印刷物、プリントの場合にも本発明は適
用することができる。
(2) The image forming medium is not limited to a positive film, and the present invention can be applied to other photographic films such as negative films, printed matter, and prints.

【0047】(3)カテゴリの数については任意に設定
することができる。また、重複の程度についても、適宜
設定することができる。 (4)出力デバイスと標準色域(CIE Lab)の間
のプロファイルについても、同様にニューラルネットワ
ークにより作成することができる。 (5)本発明によるカラーマネジメントシステムは、プ
リンターのキャリブレーションにも適用することができ
る。
(3) The number of categories can be set arbitrarily. The degree of overlap can also be set as appropriate. (4) The profile between the output device and the standard color gamut (CIE Lab) can be similarly created by the neural network. (5) The color management system according to the present invention can also be applied to printer calibration.

【図面の簡単な説明】[Brief description of drawings]

【図1】カラーマネジメントの概念を示す図[Figure 1] Diagram showing the concept of color management

【図2】標準チャートIT8を示す図FIG. 2 is a diagram showing a standard chart IT8.

【図3】写真処理装置の構成を示す模式図FIG. 3 is a schematic diagram showing the configuration of a photographic processing device.

【図4】ニューラルネットワークの構成を示す図FIG. 4 is a diagram showing a configuration of a neural network.

【図5】CIE xy色度座標を示す図FIG. 5 is a diagram showing CIE xy chromaticity coordinates.

【図6】CIE Lab色度座標を示す図FIG. 6 is a diagram showing CIE Lab chromaticity coordinates.

【図7】プロファイル作成装置の構成を示す図FIG. 7 is a diagram showing the configuration of a profile creation device.

【図8】隣接カテゴリ間の混合比を説明する図FIG. 8 is a diagram illustrating a mixture ratio between adjacent categories.

【図9】重複学習の有無の結果を比較する図FIG. 9 is a diagram for comparing results with and without overlapping learning.

【符号の説明】[Explanation of symbols]

1 CCDスキャナ 2 画像処理部 20 プロファイル作成装置 21 変換部 22 ニューラルネットワーク 23 3乗演算部 24 変換部 25 γ補正部 1 CCD scanner 2 Image processing unit 20 Profile creation device 21 Converter 22 Neural network 23 3rd power calculator 24 Converter 25 γ correction unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 新田 庫治 和歌山県和歌山市梅原579番地の1 ノー リツ鋼機株式会社内 (72)発明者 久後 耕一 和歌山県和歌山市梅原579番地の1 ノー リツ鋼機株式会社内 (72)発明者 北 耕次 和歌山県和歌山市梅原579番地の1 ノー リツ鋼機株式会社内 Fターム(参考) 2H106 AA72 AA80 AA85 BA27 BA52 BA55 BA64 5B057 AA11 BA02 CE18 CH01 CH07 CH08 5C077 LL16 LL17 MM27 MP08 PP31 PP32 PP36 PP46 PQ15 PQ23 SS01 TT02 5C079 HB01 HB05 HB08 HB11 MA04 MA10 MA13 NA13 PA03 PA08   ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Koji Nitta             No. 1 at 579 Umehara, Wakayama City, Wakayama Prefecture             Inside Ritsu Koki Co., Ltd. (72) Inventor Koichi Kugo             No. 1 at 579 Umehara, Wakayama City, Wakayama Prefecture             Inside Ritsu Koki Co., Ltd. (72) Inventor Koji Kita             No. 1 at 579 Umehara, Wakayama City, Wakayama Prefecture             Inside Ritsu Koki Co., Ltd. F term (reference) 2H106 AA72 AA80 AA85 BA27 BA52                       BA55 BA64                 5B057 AA11 BA02 CE18 CH01 CH07                       CH08                 5C077 LL16 LL17 MM27 MP08 PP31                       PP32 PP36 PP46 PQ15 PQ23                       SS01 TT02                 5C079 HB01 HB05 HB08 HB11 MA04                       MA10 MA13 NA13 PA03 PA08

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 画像形成媒体に形成された画像を画像読
取装置により読み取り、読み取られた画像データに基づ
いて、適切な発色で写真プリントを作成するための、写
真処理装置におけるカラーマネジメントシステムであっ
て、 予め用意され、複数色が表現された標準チャートを読み
取る前記画像読取装置と、 読み取られた各色の画像データの値を、目標とする基準
値に変換するためのプロファイルを作成するプロファイ
ル作成装置とを備え、 前記プロファイル作成装置は、誤差逆伝播法によるニュ
ーラルネットワークにより構成され、入力値を前記基準
値に近づけるべく学習を行うように構成されていること
を特徴とする写真処理装置におけるカラーマネジメント
システム。
1. A color management system in a photographic processing device for reading an image formed on an image forming medium by an image reading device and creating a photographic print with an appropriate color based on the read image data. And an image reading device that reads a standard chart that is prepared in advance and expresses a plurality of colors, and a profile creation device that creates a profile for converting the read image data value of each color into a target reference value. The profile creating apparatus is configured by a neural network by an error backpropagation method, and is configured to perform learning so as to bring an input value closer to the reference value. system.
【請求項2】 前記プロファイル作成装置は、前記基準
値に対する出力値の誤差値を前記基準値で除算した値を
誤差率として定義しており、前記誤差率に基づいて学習
を行うように構成されている請求項1に記載の写真処理
装置におけるカラーマネジメントシステム。
2. The profile creating device defines a value obtained by dividing an error value of an output value with respect to the reference value by the reference value as an error rate, and is configured to perform learning based on the error rate. The color management system in the photographic processing apparatus according to claim 1.
【請求項3】 前記学習を行うにあたり、入力値を色度
座標上で複数のカテゴリに分類し、前記各カテゴリに対
して前記学習を行うように構成されていることを特徴と
する請求項1又は2に記載の写真処理装置におけるカラ
ーマネジメントシステム。
3. When performing the learning, the input values are classified into a plurality of categories on chromaticity coordinates, and the learning is performed for each of the categories. Alternatively, the color management system in the photographic processing device according to item 2.
【請求項4】 前記各カテゴリは、境界部分が重複して
設定されており、境界付近の入力値を重複して学習さ
せ、両カテゴリにおける学習結果を所定の比率で平均化
するように構成したことを特徴とする請求項3に記載の
写真処理装置におけるカラーマネジメントシステム。
4. The boundaries of each category are set to overlap each other, and input values near the boundaries are overlapped and learned, and learning results in both categories are averaged at a predetermined ratio. The color management system in a photographic processing apparatus according to claim 3, wherein
【請求項5】 前記所定の比率は、前記色度座標上で彩
度0の点を中心とする円の半径方向の長さ、 又は、中
心角の大きさに基づいて設定されていることを特徴とす
る請求項4に記載の写真処理装置におけるカラーマネジ
メントシステム。
5. The predetermined ratio is set based on a radial length of a circle centered on a point of saturation 0 on the chromaticity coordinate or a size of a central angle. The color management system in a photographic processing apparatus according to claim 4.
【請求項6】 写真フィルムの画像を読取装置により読
み取り、読み取られた画像データに基づいて、適切な発
色で写真プリントを作成するための、写真処理装置にお
けるカラーマネジメント方法であって、 予め用意され、複数色が表現された標準チャートを読み
取るステップと、 読み取られた各色の画像データの値を、目標とする基準
値に変換するためのプロファイルを作成するステップと
を有し、 前記プロファイルを作成するステップにおいて、誤差逆
伝播法によるニューラルネットワークを用い、入力値を
前記基準値に近づけるべく学習を行うようことを特徴と
する写真処理装置におけるカラーマネジメント方法。
6. A color management method in a photographic processing device for reading an image of a photographic film with a reading device and creating a photographic print with an appropriate color based on the read image data, which is prepared in advance. A step of reading a standard chart representing a plurality of colors, and a step of creating a profile for converting the read image data value of each color into a target reference value, and creating the profile. In the step, a color management method in a photographic processing apparatus, wherein learning is performed so as to bring an input value closer to the reference value by using a neural network by an error back propagation method.
JP2001259988A 2001-08-29 2001-08-29 Color management system and method in photograph processor Pending JP2003066539A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001259988A JP2003066539A (en) 2001-08-29 2001-08-29 Color management system and method in photograph processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001259988A JP2003066539A (en) 2001-08-29 2001-08-29 Color management system and method in photograph processor

Publications (1)

Publication Number Publication Date
JP2003066539A true JP2003066539A (en) 2003-03-05

Family

ID=19087258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001259988A Pending JP2003066539A (en) 2001-08-29 2001-08-29 Color management system and method in photograph processor

Country Status (1)

Country Link
JP (1) JP2003066539A (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266687A (en) * 1992-09-16 1994-09-22 Philips Electron Nv Texture image synthesizer
JPH07159905A (en) * 1993-12-07 1995-06-23 Konica Corp Photographic printing and exposure deciding device
JPH07177364A (en) * 1993-12-20 1995-07-14 Ricoh Co Ltd Calibrating method
JPH09257790A (en) * 1996-01-19 1997-10-03 Nakano Vinegar Co Ltd Diagnosis supporting method
JPH1013595A (en) * 1996-06-18 1998-01-16 Fuji Photo Film Co Ltd Image recorder
JPH11284871A (en) * 1998-03-30 1999-10-15 Toyo Ink Mfg Co Ltd Color separating device
JP2000069302A (en) * 1998-08-17 2000-03-03 Toyo Ink Mfg Co Ltd Calibration method for color conversion system
JP2000122993A (en) * 1998-10-15 2000-04-28 Toyo Electric Mfg Co Ltd Water distribution demand predicting method
JP2000298318A (en) * 1999-04-15 2000-10-24 Noritsu Koki Co Ltd Image output device and image decision method
JP2000350049A (en) * 1999-06-08 2000-12-15 Toyo Ink Mfg Co Ltd Color correction device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266687A (en) * 1992-09-16 1994-09-22 Philips Electron Nv Texture image synthesizer
JPH07159905A (en) * 1993-12-07 1995-06-23 Konica Corp Photographic printing and exposure deciding device
JPH07177364A (en) * 1993-12-20 1995-07-14 Ricoh Co Ltd Calibrating method
JPH09257790A (en) * 1996-01-19 1997-10-03 Nakano Vinegar Co Ltd Diagnosis supporting method
JPH1013595A (en) * 1996-06-18 1998-01-16 Fuji Photo Film Co Ltd Image recorder
JPH11284871A (en) * 1998-03-30 1999-10-15 Toyo Ink Mfg Co Ltd Color separating device
JP2000069302A (en) * 1998-08-17 2000-03-03 Toyo Ink Mfg Co Ltd Calibration method for color conversion system
JP2000122993A (en) * 1998-10-15 2000-04-28 Toyo Electric Mfg Co Ltd Water distribution demand predicting method
JP2000298318A (en) * 1999-04-15 2000-10-24 Noritsu Koki Co Ltd Image output device and image decision method
JP2000350049A (en) * 1999-06-08 2000-12-15 Toyo Ink Mfg Co Ltd Color correction device

Similar Documents

Publication Publication Date Title
JP4998794B2 (en) Image correction method and image correction apparatus
JPH04144361A (en) Method for correcting setup parameter determining characteristic and automatic setup device
JPH06500679A (en) How to generate multicolor halftone reproductions from continuous tone monochrome originals
JP2003066539A (en) Color management system and method in photograph processor
CN102547061A (en) Color material amount control method and image forming apparatus for limiting an amount of the color material to be used for image formation
JP4591784B2 (en) Method for creating conversion table for photographed image correction and photo printing apparatus for implementing this method
JPS60216353A (en) Automatic setting method of image processing condition
JP4661659B2 (en) Photo image processing apparatus and photo image processing method
JPH0990528A (en) Method for setting condition of photographic printer
JP2009027254A (en) Image correcting method and image correcting device
JP4793648B2 (en) Image correction unit and image correction program
JP4431980B2 (en) Gradation correction method and color printing apparatus using the method
JP3093220B2 (en) Color image processing method
JPH056827B2 (en)
JP4051557B2 (en) Photo printing device
JP3843336B2 (en) Gradation correction method and color image printer employing the method
JP2749801B2 (en) How to set color image analysis conditions
JP4573822B2 (en) Color difference calculation system in multicolor printing
JP2005064801A (en) Image forming apparatus
JPS60216351A (en) Automatic setting method of gradation processing condition
JPH0898048A (en) Image processor and method therefor
JPH09275508A (en) Color image generating device and method for generating its correction table
JP2005072850A (en) Adjusting method of three dimensional lut and color conversion system equipped with three dimensional lut
JP2787217B2 (en) Laser beam printer
JPH07159905A (en) Photographic printing and exposure deciding device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110223

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20110228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110228

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110802