JP6891189B2 - Equipment, systems, and recording media for measuring color differences - Google Patents

Equipment, systems, and recording media for measuring color differences Download PDF

Info

Publication number
JP6891189B2
JP6891189B2 JP2018546639A JP2018546639A JP6891189B2 JP 6891189 B2 JP6891189 B2 JP 6891189B2 JP 2018546639 A JP2018546639 A JP 2018546639A JP 2018546639 A JP2018546639 A JP 2018546639A JP 6891189 B2 JP6891189 B2 JP 6891189B2
Authority
JP
Japan
Prior art keywords
color
image
unit
average
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018546639A
Other languages
Japanese (ja)
Other versions
JP2019516068A (en
JP2019516068A5 (en
Inventor
正明 古沢
正明 古沢
文男 唐澤
文男 唐澤
吉則 森田
吉則 森田
幸雄 野尻
幸雄 野尻
公二 齊藤
公二 齊藤
真 隅出
真 隅出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3M Innovative Properties Co
Original Assignee
3M Innovative Properties Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 3M Innovative Properties Co filed Critical 3M Innovative Properties Co
Publication of JP2019516068A publication Critical patent/JP2019516068A/en
Publication of JP2019516068A5 publication Critical patent/JP2019516068A5/ja
Application granted granted Critical
Publication of JP6891189B2 publication Critical patent/JP6891189B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/027Control of working procedures of a spectrometer; Failure detection; Bandwidth calculation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0272Handheld
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/463Colour matching

Landscapes

  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)
  • Spectrometry And Color Measurement (AREA)

Description

本発明は、色差を測定するための装置、システム、及び記録媒体に関する。 The present invention relates to an apparatus, a system, and a recording medium for measuring a color difference.

米国特許出願公開第2014/0022535号は、飽和値、全スペクトル放射係数などの、測定対象の光学特性を測定するための装置、及び方法を開示している。米国特許出願公開第2014/0022535号において、測定対象物の光学特性を測定する前に、測定用開口部を通して入射する、所定の周囲光のスペクトル強度分布を測定して記憶する。次に、光学特性を測定するときには、記憶されている周囲光のスペクトル強度分布を用いて、測定された周囲光を観察用光源として用いた場合の光学特性を求める。 U.S. Patent Application Publication No. 2014/0022535 discloses devices and methods for measuring optical properties to be measured, such as saturation values and total spectrum emission coefficients. In U.S. Patent Application Publication No. 2014/0022535, the spectral intensity distribution of a predetermined ambient light incident through a measurement opening is measured and stored before measuring the optical properties of the object to be measured. Next, when measuring the optical characteristics, the spectral intensity distribution of the stored ambient light is used to obtain the optical characteristics when the measured ambient light is used as an observation light source.

対象物が設置された状態で、屋外看板、構造物の外部又は内部に使用される壁装材などの対象物を遠くから見たときに、それらの対象物の全体的な色の傾向を把握するために、対象物の比較的広い領域の平均色値を求め、次に複数の色値の中から色差を測定する技術が要求される。対象物の表面にパターンがある場合、測定によって得られた色値は、測定対象物の領域の位置及びサイズに応じて変化することがある。したがって、本明細書で説明するような平均色値の測定には、単一の特定の点を測定するスペクトル光度計は好適ではない。一方、市販されているいくつかの測色計は、より広い領域を測定することができるが、このような装置は大型で高価であり、したがって携帯用ではない。これは、設置されている屋外看板などの対象物を測定することを困難にしている。したがって、例えば撮像部を備えた市販の携帯端末を用いて、測定領域の平均色値を容易に求め、複数の色値間の色差を測定することができる機能が必要となる。 With objects installed, when looking at objects such as outdoor signboards, wall coverings used outside or inside structures, from a distance, grasp the overall color tendency of those objects. In order to do so, a technique of obtaining an average color value in a relatively wide area of an object and then measuring a color difference from a plurality of color values is required. If there is a pattern on the surface of the object, the color value obtained by the measurement may change depending on the position and size of the area of the object to be measured. Therefore, a spectral photometer that measures a single specific point is not suitable for measuring average color values as described herein. On the other hand, some colorimeters on the market can measure a wider area, but such devices are large and expensive and therefore not portable. This makes it difficult to measure objects such as outdoor signboards that are installed. Therefore, for example, using a commercially available mobile terminal provided with an imaging unit, it is necessary to have a function capable of easily obtaining an average color value in a measurement area and measuring a color difference between a plurality of color values.

本発明の目的は、対象物の平均色値と比較対象の色値との間の色差を容易に測定することができる装置、システム、及び記録媒体を提供することである。 An object of the present invention is to provide an apparatus, system, and recording medium capable of easily measuring a color difference between an average color value of an object and a color value to be compared.

対象物の画像ショットの画像データを取得する画像取得部と、画像内の対象物上の所定の画像領域を選択する領域選択部と、画像データの色値から、画像領域における色値の平均である平均色値を計算する平均値計算部と、平均色値及び平均色値と同じ色空間における比較対象の色値の間の色差を計算する色差計算部と、色差に関する情報を出力する出力部と、を含む装置が提供される。 An image acquisition unit that acquires image data of an image shot of an object, an area selection unit that selects a predetermined image area on the object in the image, and an average of the color values in the image area from the color values of the image data. An average value calculation unit that calculates a certain average color value, a color difference calculation unit that calculates the color difference between the average color value and the color value to be compared in the same color space as the average color value, and an output unit that outputs information about the color difference. And the equipment including.

上述の装置において、領域選択部は、画像内の画像領域の位置に応じて、平均色値が所定の許容範囲より大きく変化しない面積及び形状を有する領域を、画像領域として選択することが可能である。 In the above-mentioned device, the area selection unit can select an area having an area and a shape in which the average color value does not change significantly from a predetermined allowable range according to the position of the image area in the image as the image area. is there.

上述の装置において、領域選択部は、特定面積及び形状を有する領域が画像内で移動したときに領域内の平均色値が所定の許容範囲より大きく変化しない位置における、特定の面積及び形状を有する領域を画像領域として選択することが可能である。 In the above-mentioned apparatus, the area selection unit has a specific area and shape at a position where the average color value in the area does not change much more than a predetermined allowable range when the area having the specific area and shape moves in the image. The area can be selected as the image area.

上述の装置は、ユーザ操作によって指定された画像内の領域を承認する承認部を更に含み、領域選択部は、承認部によって承認されたユーザ操作に応じて画像領域を選択することが可能である。 The above-mentioned device further includes an approval unit that approves an area in an image designated by a user operation, and the area selection unit can select an image area according to a user operation approved by the approval unit. ..

上述の装置において、領域選択部は、画像内の対象物全体を画像領域として選択することが可能である。 In the above-mentioned device, the area selection unit can select the entire object in the image as an image area.

上述の装置において、領域選択部は、画像を撮影する撮像部と対象物との間の距離を、画像データに付加された撮像情報から取得し、距離が短いほど大きい面積を有する画像領域を選択することが可能である。 In the above-mentioned device, the area selection unit acquires the distance between the image pickup unit that captures an image and the object from the image pickup information added to the image data, and selects an image region having a larger area as the distance is shorter. It is possible to do.

上述の装置において、領域選択部は、画像内の輝度値が輝度値限界を超える画素領域を除いて、画像領域を選択することが可能である。 In the above-mentioned device, the area selection unit can select an image area except for a pixel area in which the brightness value in the image exceeds the brightness value limit.

装置は、画像データに基づいて画像を撮影する照明条件を計算し、計算された照明条件に応じて画像データの色値を補正する照明条件補正部を更に含むことが可能で、平均値計算部は、照明条件補正部によって補正された色値から平均色値を計算することが可能である。 The device can further include a lighting condition correction unit that calculates the lighting conditions for capturing an image based on the image data and corrects the color value of the image data according to the calculated lighting conditions, and is an average value calculation unit. Can calculate the average color value from the color value corrected by the illumination condition correction unit.

装置は、画像を撮影する撮像部を更に含むことが可能である。 The device can further include an imaging unit that captures an image.

装置は、平均色値と同じ色空間内における色値である複数の基準色値、及び互いに関連しあう複数の対象物の識別情報を記憶する記憶部と、画像内の対象物の識別情報を取得する識別情報取得部と、色差が所定の色差範囲内にあるか否かを判定する判定部と、を更に含むことが可能である。ここで色差計算部が、複数の基準色値の中で識別情報に対応する基準色値と、平均色値との間の色差を計算し、出力部が、判定部による判定の結果を出力することが可能である。 The device stores a plurality of reference color values, which are color values in the same color space as the average color value, and identification information of a plurality of objects related to each other, and identification information of the objects in the image. It is possible to further include an identification information acquisition unit to be acquired and a determination unit for determining whether or not the color difference is within a predetermined color difference range. Here, the color difference calculation unit calculates the color difference between the reference color value corresponding to the identification information and the average color value among the plurality of reference color values, and the output unit outputs the result of the determination by the determination unit. It is possible.

上述の装置において、画像取得部が、第1の対象物を撮影することによって得られた第1の画像データ、及び第2の対象物を撮影することによって得られた第2の画像データを、画像データとして取得することと、平均値計算部が、第1の画像データの第1の平均色値を平均色値として計算し、第2の画像データの第2の平均色値を比較対象の色値として計算することと、色差計算部が、第1の平均色値と第2の平均色値との間の色差を計算することと、出力部が、色差が所定の色差範囲内にあるか否かを示す情報を出力することとが可能である。 In the above-mentioned apparatus, the image acquisition unit obtains the first image data obtained by photographing the first object and the second image data obtained by photographing the second object. Acquiring as image data, the average value calculation unit calculates the first average color value of the first image data as the average color value, and the second average color value of the second image data is compared. The color difference calculation unit calculates the color difference between the first average color value and the second average color value, and the output unit outputs the color difference within a predetermined color difference range. It is possible to output information indicating whether or not.

上述の装置において、第1の対象物が印刷物であってもよく、色差が色差範囲内にない場合に、色差を小さくするよう印刷物の印刷データの色値を補正する、印刷データ補正部を更に備えることが可能である。 In the above-mentioned apparatus, the first object may be a printed matter, and when the color difference is not within the color difference range, a print data correction unit that corrects the color value of the printed data of the printed matter so as to reduce the color difference is further provided. It is possible to prepare.

上述の装置は、平均色値と同じ色空間内における色値である複数の基準色値、及び互いに関連しあう複数の対象物の識別情報を記憶する記憶部と、色差の計算結果による識別情報を参照する参照部と、を更に含むことが可能である。ここで、色差計算部は、複数の基準色値の各々と平均色値との間の色差を計算し、出力部は、参照された識別情報を出力することが可能である。 The above-mentioned device has a storage unit that stores a plurality of reference color values that are color values in the same color space as the average color value, and identification information of a plurality of objects related to each other, and identification information based on a color difference calculation result. It is possible to further include a reference part that refers to. Here, the color difference calculation unit calculates the color difference between each of the plurality of reference color values and the average color value, and the output unit can output the referenced identification information.

上述の装置において、記憶部が、複数の対象物の各々について、対象物を撮影することによって得られた画像における色値の空間分布を空間周波数スペクトル領域内に変換することで得られた周波数分布を更に記憶することと、装置が、複数の対象物の各々について、記憶部に記憶された周波数分布を、画像取得部によって取得された画像データの画像における色値の空間分布を空間周波数スペクトル領域内に変換することによって得られた周波数分布と比較する比較処理部を更に含むことと、参照部が、比較処理部による比較の結果に従って、識別情報を更に参照することとが可能である。 In the above-mentioned device, the storage unit converts the spatial distribution of the color values in the image obtained by photographing the objects for each of the plurality of objects into the spatial frequency spectrum region, and the frequency distribution is obtained. The device further stores the frequency distribution stored in the storage unit for each of the plurality of objects, and the spatial frequency spectrum region of the color value in the image of the image data acquired by the image acquisition unit. It is possible to further include a comparison processing unit for comparison with the frequency distribution obtained by converting within, and for the reference unit to further refer to the identification information according to the result of comparison by the comparison processing unit.

更に、互いに通信可能に接続された端末装置とサーバ装置とを含むシステムが提供される。端末装置は、対象物の画像ショットの画像データを取得する画像取得部と、画像内の対象物上の所定の画像領域を選択する領域選択部と、画像データの色値から、画像領域における色値の平均である平均色値を計算する平均値計算部と、サーバ装置から受信した基準色値と平均色値との間の色差を計算する色差計算部と、画像内の対象物の識別情報をサーバ装置に送信し、識別情報によって示された、対象物に対応する基準色値をサーバ装置から受信する端末通信部と、色差に関する情報を出力する出力部と、を更に含む。サーバ装置は、平均色値と同じ色空間内における色値である複数の基準色値、及び互いに関連する複数の対象物の識別情報を記憶する記憶部と、識別情報を端末装置から受信し、複数の基準色値の中から識別情報によって示された、対象物に対応する基準色値を、端末装置に送信するサーバ通信部と、を含む。 Further, a system including a terminal device and a server device that are communicably connected to each other is provided. The terminal device has an image acquisition unit that acquires image data of an image shot of an object, an area selection unit that selects a predetermined image area on the object in the image, and a color in the image area from the color value of the image data. An average value calculation unit that calculates the average color value, which is the average of the values, a color difference calculation unit that calculates the color difference between the reference color value and the average color value received from the server device, and identification information of the object in the image. Is further included in the terminal communication unit that transmits the above to the server device and receives the reference color value corresponding to the object indicated by the identification information from the server device, and the output unit that outputs the information regarding the color difference. The server device receives from the terminal device a storage unit that stores a plurality of reference color values that are color values in the same color space as the average color value, and identification information of a plurality of objects related to each other, and the identification information. It includes a server communication unit that transmits a reference color value corresponding to an object, which is indicated by identification information from a plurality of reference color values, to a terminal device.

更に、互いに通信可能に接続された端末装置とサーバ装置とを含むシステムが提供される。端末装置は、対象物の画像ショットの画像データを取得する画像取得部と、画像内の対象物上で所定の画像領域を選択する領域選択部と、画像領域における色値の平均である平均色値を、画像データの色値から計算する平均値計算部と、平均色値をサーバ装置に送信し、対象物の識別情報をサーバ装置から受信する端末通信部と、識別情報を出力する出力部と、を含む。サーバ装置は、平均色値と同じ色空間内における色値である複数の基準色値、及び互いに関連する複数の対象物の識別情報を記憶する記憶部と、端末装置から受信した平均色値と基準色値との間の色差を計算する色差計算部と、色差の計算結果による識別情報を参照する参照部と、平均色値を端末装置から受信し、参照部によって参照された識別情報を端末装置に送信するサーバ通信部と、を含む。 Further, a system including a terminal device and a server device that are communicably connected to each other is provided. The terminal device includes an image acquisition unit that acquires image data of an image shot of an object, an area selection unit that selects a predetermined image area on the object in the image, and an average color that is an average of color values in the image area. An average value calculation unit that calculates the value from the color value of the image data, a terminal communication unit that sends the average color value to the server device and receives the identification information of the object from the server device, and an output unit that outputs the identification information. And, including. The server device has a storage unit that stores a plurality of reference color values that are color values in the same color space as the average color value, identification information of a plurality of objects related to each other, and an average color value received from the terminal device. A color difference calculation unit that calculates the color difference from the reference color value, a reference unit that refers to the identification information based on the color difference calculation result, and a terminal that receives the average color value from the terminal device and receives the identification information referenced by the reference unit. Includes a server communication unit that transmits to the device.

更に、互いに通信可能に接続された端末装置とサーバ装置とを含むシステムが提供される。端末装置は、対象物の画像ショットの画像データを取得する画像取得部と、画像内の対象物上の所定の画像領域を選択する領域選択部と、画像データをサーバ装置に送信し、対象物の識別情報をサーバ装置から受信する端末通信部と、識別情報を出力する出力部と、を含む。サーバ装置は、複数の基準色値及び互いに関連付けられた複数の対象物の識別情報を記憶する記憶部と、端末装置から受信した画像データの色値から、画像領域における色値の平均である平均色値を計算する平均値計算部と、平均色値と基準色値との間の色差を計算する色差計算部と、色差の計算結果による識別情報を参照する参照部と、画像データを端末装置から受信し、参照部によって参照した識別情報を端末装置へ送信するサーバ通信部と、を含む。 Further, a system including a terminal device and a server device that are communicably connected to each other is provided. The terminal device transmits image data to the server device, an image acquisition unit that acquires image data of an image shot of the object, an area selection unit that selects a predetermined image area on the object in the image, and the object. It includes a terminal communication unit that receives the identification information of the above from the server device, and an output unit that outputs the identification information. The server device is an average of color values in an image area from a storage unit that stores identification information of a plurality of reference color values and a plurality of objects associated with each other and color values of image data received from the terminal device. An average value calculation unit that calculates a color value, a color difference calculation unit that calculates a color difference between an average color value and a reference color value, a reference unit that refers to identification information based on the color difference calculation result, and a terminal device that outputs image data. Includes a server communication unit that receives from and transmits the identification information referenced by the reference unit to the terminal device.

更に、互いに通信可能に接続された端末装置とサーバ装置とを含むシステムが提供される。端末装置は、印刷物である第1の対象物を撮影して得られた第1の画像データを取得する画像取得部と、第1の画像データ内の第1の対象物上の所定の画像領域を選択する領域選択部と、領域選択部によって選択された画像領域の画像データをサーバ装置に送信する端末通信部と、を含む。サーバ装置は、第2の対象物を撮影することによって得られた第2の画像データを記憶する記憶部と、第1の画像データの第1の平均色値及び第2の画像データの第2の平均色値を計算する平均値計算部と、第1の平均色値と第2の平均色値との間の色差を計算する色差計算部と、色差が所定の色差範囲内にない場合に色差を小さくするよう、印刷物の印刷データの色値を補正する印刷データ補正部と、第1の画像データを端末装置から受信するサーバ通信部と、を含む。 Further, a system including a terminal device and a server device that are communicably connected to each other is provided. The terminal device includes an image acquisition unit that acquires a first image data obtained by photographing a first object that is a printed matter, and a predetermined image area on the first object in the first image data. Includes an area selection unit for selecting, and a terminal communication unit for transmitting image data of the image area selected by the area selection unit to the server device. The server device has a storage unit that stores the second image data obtained by photographing the second object, a first average color value of the first image data, and a second image data of the second image data. An average value calculation unit that calculates the average color value of the data, a color difference calculation unit that calculates the color difference between the first average color value and the second average color value, and a color difference calculation unit that calculates the color difference when the color difference is not within a predetermined color difference range. The print data correction unit that corrects the color value of the print data of the printed matter so as to reduce the color difference, and the server communication unit that receives the first image data from the terminal device are included.

更に、対象物の画像ショットの画像データを取得する機能と、画像内の対象物上の所定の画像領域を選択する機能と、画像領域における色値の平均である平均色値を、画像データの色値から計算する機能と、平均色値と同じ色空間内の平均色値である比較対象の色値との間の色差を計算する機能と、色差に関する情報を出力する機能とをコンピュータに実行させるプログラムが記録される、非一時的コンピュータ可読記録媒体が提供される。 Further, the function of acquiring the image data of the image shot of the object, the function of selecting a predetermined image area on the object in the image, and the average color value which is the average of the color values in the image area are obtained from the image data. A function to calculate from the color value, a function to calculate the color difference between the average color value and the color value to be compared, which is the average color value in the same color space, and a function to output information about the color difference are executed on the computer. A non-temporary computer-readable recording medium is provided in which the program to be recorded is recorded.

上述の装置、システム、及び記録媒体によって、対象物の平均色値と比較対象の色値との間の色差を容易に測定することができる。 With the above-mentioned devices, systems, and recording media, the color difference between the average color value of the object and the color value of the comparison target can be easily measured.

端末装置1の構成を概略で示す図である。It is a figure which shows the structure of the terminal apparatus 1 schematicly. 表示部13に表示される画面の例を示す図である。It is a figure which shows the example of the screen displayed on the display part 13. 領域選択部22による、画像領域を選択する例を示す図である。It is a figure which shows the example which selects the image area by the area selection part 22. 画像領域の面積に依存する平均色値の変動を示すグラフである。It is a graph which shows the fluctuation of the average color value which depends on the area of an image area. 領域選択部22による、画像領域を選択する他の方法を示す図である。It is a figure which shows the other method of selecting an image area by the area selection part 22. 端末装置1によって実行される操作例を示すフロー図である。It is a flow chart which shows the operation example executed by the terminal apparatus 1. 端末装置1Aの構成を概略で示す図である。It is a figure which shows roughly the structure of the terminal apparatus 1A. 端末装置1Aの記憶部14に記憶された情報例を示す図である。It is a figure which shows the example of the information stored in the storage part 14 of the terminal apparatus 1A. 端末装置1Aによって実行される操作例を示すフロー図である。It is a flow chart which shows the operation example executed by the terminal apparatus 1A. 端末装置1Bの構成を概略で示す図である。It is a figure which shows roughly the structure of the terminal apparatus 1B. 端末装置1Bの機能を示す概略図である。It is the schematic which shows the function of the terminal apparatus 1B. 端末装置1Bによって実行される操作例を示すフロー図である。It is a flow chart which shows the operation example executed by the terminal apparatus 1B. 端末装置1Cの構成を概略で示す図である。It is a figure which shows roughly the structure of the terminal apparatus 1C. 端末装置1Cの記憶部14に記憶された情報例を示す図である。It is a figure which shows the example of the information stored in the storage part 14 of the terminal apparatus 1C. 壁装材画像、及びそれらに対応する周波数分布画像の例を示す図である。It is a figure which shows the example of the wall covering image, and the frequency distribution image corresponding to them. 端末装置1Cによって実行される操作例を示すフロー図である。It is a flow chart which shows the operation example executed by the terminal apparatus 1C. 通信システム3Dの構成を概略で示す図である。It is a figure which shows the structure of the communication system 3D schematicly. 通信システム3Eの構成を概略で示す図である。It is a figure which shows the structure of the communication system 3E schematicly. 通信システム3Eの操作シーケンス例を示す図である。It is a figure which shows the operation sequence example of the communication system 3E. 通信システム3Fの構成を概略で示す図である。It is a figure which shows the structure of the communication system 3F schematicly. 通信システム3Fの操作シーケンス例を示す図である。It is a figure which shows the operation sequence example of the communication system 3F. 通信システム3Gの構成を概略で示す図である。It is a figure which shows roughly the structure of the communication system 3G. 通信システム3Gの操作シーケンス例を示す図である。It is a figure which shows the operation sequence example of the communication system 3G.

色差を測定する装置、システム、及び記録媒体を、添付の図を参照して以下で詳細に説明する。しかしながら、本発明の技術的範囲はそれらの実施形態に限定されず、その技術的範囲は、特許請求の範囲で開示される本発明とその均等物に及ぶ点に留意されたい。 Devices, systems, and recording media for measuring color differences will be described in detail below with reference to the accompanying figures. However, it should be noted that the technical scope of the present invention is not limited to those embodiments, and the technical scope extends to the present invention and its equivalents disclosed in the claims.

図1は、端末装置1の構成を概略で示す図である。端末装置1は、カメラ付きスマートフォンなどの携帯端末によって実現され、例えばサイズが数cm〜数mの対象物におけるキャプチャ画像の比較的広範囲の平均色値を求め、複数の色値同士間の色差を測定する色差計として機能する。ここで言及される「比較的広範囲」は、画像内の対象物の一部又は全部であり、例えば画像内の概ね数mm平方の領域に対応している。端末装置1は、撮像部11、操作部12、表示部13、記憶部14、端末通信部15、及び制御部20を含む。 FIG. 1 is a diagram schematically showing the configuration of the terminal device 1. The terminal device 1 is realized by a mobile terminal such as a smartphone with a camera. For example, an average color value of a relatively wide range of a captured image in an object having a size of several cm to several m is obtained, and a color difference between a plurality of color values is obtained. Functions as a color difference meter to measure. The "relatively wide area" referred to herein is part or all of an object in an image, for example, corresponding to an area of approximately several millimeters square in the image. The terminal device 1 includes an imaging unit 11, an operation unit 12, a display unit 13, a storage unit 14, a terminal communication unit 15, and a control unit 20.

撮像部11は、端末装置1に設けられたカメラに相応し、対象物の画像を撮影して、RAW(DNG)データ、JPEG(JFIF)データ、sRGBデータ、又は同様のフォーマットで、測定対象物の画像データを取得する。これらのデータ形式のうちのいずれかが利用可能であるが、以下では、撮像部11がsRGBデータを取得する例について主に説明する。 The image pickup unit 11 corresponds to the camera provided in the terminal device 1, captures an image of the object, and uses RAW (DNG) data, PEG (JFIF) data, sRGB data, or a similar format to measure the object. Get the image data of. Any of these data formats can be used, but in the following, an example in which the imaging unit 11 acquires sRGB data will be mainly described.

操作部12は、例えばタッチパネル、キーボードなどで構成され、ユーザの操作を受ける。表示部13は、例えば液晶ディスプレイであり、タッチパネルディスプレイとして操作部12と一体化されてもよい。表示部13は出力部の一例であり、制御部20によって計算された色差に関する情報を出力する。 The operation unit 12 is composed of, for example, a touch panel, a keyboard, or the like, and receives a user's operation. The display unit 13 is, for example, a liquid crystal display, and may be integrated with the operation unit 12 as a touch panel display. The display unit 13 is an example of an output unit, and outputs information on the color difference calculated by the control unit 20.

図2は、表示部13上に表示された画面の例を示す図である。ここで示す例において、撮像部11によって撮影された2つの画像50A及び50Bが表示部13の上部範囲に表示される。一方、画像50A内の矩形画像領域51における平均色値61、画像50B内の矩形画像領域52における平均色値62、及び平均色値61と62との間の色差63が、表示部13の下部範囲に表示される。ここで言及される「平均色値」は、画像領域51又は画像領域52における各画素のsRGB値の平均である。 FIG. 2 is a diagram showing an example of a screen displayed on the display unit 13. In the example shown here, the two images 50A and 50B captured by the imaging unit 11 are displayed in the upper range of the display unit 13. On the other hand, the average color value 61 in the rectangular image area 51 in the image 50A, the average color value 62 in the rectangular image area 52 in the image 50B, and the color difference 63 between the average color values 61 and 62 are the lower part of the display unit 13. Displayed in the range. The "average color value" referred to here is the average of the sRGB values of each pixel in the image area 51 or the image area 52.

記憶部14は、例えば、撮像部11によって取得された画像データ、端末装置1の動作に必要なデータなどを記憶する半導体メモリである。端末通信部15は、端末装置1が、データを外部装置への送信及び外部装置からの受信に使用するインターフェースである。 The storage unit 14 is, for example, a semiconductor memory that stores image data acquired by the imaging unit 11, data necessary for the operation of the terminal device 1, and the like. The terminal communication unit 15 is an interface used by the terminal device 1 to transmit data to and receive data from the external device.

制御部20は、CPU、RAM、ROMなどから構成されており、端末装置1の操作を制御する。図1に示されるように、制御部20は、画像取得部21と、領域選択部22と、照明条件補正部23と、平均値計算部24と、色差計算部25とを、機能ブロックとして含む。 The control unit 20 is composed of a CPU, RAM, ROM, and the like, and controls the operation of the terminal device 1. As shown in FIG. 1, the control unit 20 includes an image acquisition unit 21, an area selection unit 22, a lighting condition correction unit 23, an average value calculation unit 24, and a color difference calculation unit 25 as functional blocks. ..

画像取得部21は、撮像部11によって撮影された対象物の画像の画像データを取得する。しかし、画像取得部21は、例えば端末通信部15を介して別の撮像装置で撮影された画像データを取得してもよい。 The image acquisition unit 21 acquires image data of an image of an object captured by the image pickup unit 11. However, the image acquisition unit 21 may acquire image data captured by another imaging device via, for example, the terminal communication unit 15.

領域選択部22は、対象物の平均色値が計算されることになる画像内の、所定の画像領域を選択する。このとき、領域選択部22は、操作部12を用いた端末装置1のユーザに応じて画像領域を選択し、例えば、表示部13に表示されている画像内の範囲を特定する。例えば、操作部12及び表示部13がタッチパネルディスプレイを構成した場合に、領域選択部22は、ユーザが自分の指を用いて画像領域として指定した、表示された画像内の範囲を選択する。この場合、操作部12は、ユーザ操作によって指定された画像の領域を承認する承認部として機能する。 The area selection unit 22 selects a predetermined image area in the image from which the average color value of the object is to be calculated. At this time, the area selection unit 22 selects an image area according to the user of the terminal device 1 using the operation unit 12, and specifies, for example, a range in the image displayed on the display unit 13. For example, when the operation unit 12 and the display unit 13 configure a touch panel display, the area selection unit 22 selects a range within the displayed image designated as an image area by the user using his / her finger. In this case, the operation unit 12 functions as an approval unit that approves the area of the image designated by the user operation.

あるいは、領域選択部22は、ユーザ操作を行うことなく、画像領域を自動的に選択してもよい。このとき、領域選択部22は、画像内の位置によって平均色値が所定の許容範囲より大きく変化しない面積及び形状を有する領域を、所定の画像領域として選択することが可能である。この選択方法は、図3、図4を用いて説明する。 Alternatively, the area selection unit 22 may automatically select an image area without performing a user operation. At this time, the region selection unit 22 can select a region having an area and a shape whose average color value does not change significantly from a predetermined allowable range depending on the position in the image as a predetermined image region. This selection method will be described with reference to FIGS. 3 and 4.

図3は、領域選択部22による画像領域の選択例を示す図形であり、図4は、画像領域の面積に依存する平均色値の変動を示すグラフである。図3は、チェッカーボードパターンの画像50において、それぞれ辺長がx1、x2、x3(ここで、x1<x2<x3)の正方形の画像領域51、52、53が選択された場合を示している。図4の横軸は、画像領域のスケールx(その一辺の長さ)を表し、図4の縦軸は画像領域における平均sRGB値を表す。図4に示される例において、画像領域のスケールxが3以下の範囲では、画像50内のパターンの結果として、それぞれのRGB平均色値はスケールxに応じて変化する。しかし、スケールxが3以上の範囲では、各平均色値は実質的に一定である。画像がチェッカーボードパターンを有する場合、領域が、少なくとも2×2のパターンにおいて少なくとも4つのチェックを含む正方形である限り、領域の位置及び面積に関係なく平均色値は一定となる。したがって領域選択部22は、画像内の対象物に、矩形や円などの特定の形状を有する領域を適用し、その領域の面積を徐々に拡大しながらそれぞれのRGB平均色値を計算し、次に、面積に依存するそれぞれの平均色値の変動が、許容範囲内に収まる面積及び形状を有する領域を選択してもよい。 FIG. 3 is a figure showing an example of selecting an image area by the area selection unit 22, and FIG. 4 is a graph showing a variation in the average color value depending on the area of the image area. FIG. 3 shows a case where square image regions 51, 52, and 53 having side lengths x1, x2, and x3 (here, x1 <x2 <x3) are selected in the checkerboard pattern image 50, respectively. .. The horizontal axis of FIG. 4 represents the scale x (the length of one side thereof) of the image area, and the vertical axis of FIG. 4 represents the average sRGB value in the image area. In the example shown in FIG. 4, in the range where the scale x of the image region is 3 or less, each RGB average color value changes according to the scale x as a result of the pattern in the image 50. However, in the range where the scale x is 3 or more, each average color value is substantially constant. When the image has a checkerboard pattern, the average color value is constant regardless of the position and area of the area as long as the area is a square containing at least 4 checks in at least a 2x2 pattern. Therefore, the area selection unit 22 applies an area having a specific shape such as a rectangle or a circle to the object in the image, calculates the RGB average color value of each while gradually expanding the area of the area, and then calculates the RGB average color value. In addition, a region having an area and a shape in which the variation of each average color value depending on the area is within the permissible range may be selected.

あるいは、画像内の特定の面積及び形状を有する領域を移動させる場合に、その領域内の平均色値が所定の許容範囲を超えて変化しない位置における面積及び形状を有する領域を、領域選択部22によって所定の画像領域として選択してもよい。この選択方法は、図5を用いて説明する。 Alternatively, when moving a region having a specific area and shape in the image, the region selection unit 22 selects the region having the area and shape at a position where the average color value in the region does not change beyond a predetermined allowable range. May be selected as a predetermined image area. This selection method will be described with reference to FIG.

図5は、領域選択部22によって画像領域を選択するための、別の方法を示す図である。図5は、同じサイズを有する6つの正方形の画像領域51〜56が画像50内に示され、画像50は格子状領域及び空白領域の両方を含む場合の例を示す。この例において、画像領域51〜53は格子状領域内にあるため、各画像領域の平均色値は実質的に一定である。一方、各画像領域54〜56において、格子状領域の空白領域に対する面積の割合が異なるので、これらの各画像領域の平均色値は、画像領域51〜53の値とは異なり、領域によって変化する。したがって、領域選択部22は、画像中の特定の面積及び形状の領域が画像内で上下左右に設定画素数以上移動しても、得られた平均色値が実質的に一定となる位置に、正方形又は円(画像が拡大又は縮小した場合はその倍率に基づく類似形状)のような、特定の面積及び形状を有する領域を選択してもよい。 FIG. 5 is a diagram showing another method for selecting an image region by the region selection unit 22. FIG. 5 shows an example in which six square image regions 51 to 56 having the same size are shown in the image 50, and the image 50 includes both a grid area and a blank area. In this example, since the image regions 51 to 53 are in the grid-like region, the average color value of each image region is substantially constant. On the other hand, in each of the image regions 54 to 56, the ratio of the area of the grid region to the blank region is different, so that the average color value of each of these image regions is different from the values of the image regions 51 to 53 and changes depending on the region. .. Therefore, the area selection unit 22 is set at a position where the obtained average color value is substantially constant even if a region having a specific area and shape in the image moves up, down, left, or right in the image by a set number of pixels or more. Regions with a particular area and shape may be selected, such as squares or circles (similar shapes based on their magnification if the image is enlarged or reduced).

あるいは、領域選択部22は、画像を撮影する撮像部11と対象物との間の距離がより短くなるほど、大きい画像領域を選択することができる。このとき、例えば、領域選択部22は、RAWデータ、JPEGデータなどの画像データに付加されているExifデータなどの画像情報から焦点距離値を取得し、焦点距離が短くなるほど大きい表面積を有する画像領域を選択する。対象物の表面のパターンは、対象物からの距離が短いほどより詳細に画像内に現れるので、画像領域の面積を大きくすることで、画像領域がどのように適用されるかに依存するパターンによる平均色値の変動を抑制する。 Alternatively, the area selection unit 22 can select a larger image area as the distance between the image capturing unit 11 for capturing an image and the object becomes shorter. At this time, for example, the region selection unit 22 acquires a focal length value from image information such as Exif data added to image data such as RAW data and PEG data, and the image region having a larger surface surface as the focal length becomes shorter. Select. The pattern on the surface of the object appears in more detail in the image as the distance from the object is shorter. Therefore, by increasing the area of the image area, it depends on the pattern depending on how the image area is applied. Suppress fluctuations in the average color value.

あるいは、領域選択部22は、画像を望遠レンズか広角レンズのどちらで撮影したかによって異なる面積を有する画像領域を選択してもよい。一般的に、撮像部11と被写体(対象物)とが互いから離れている場合、望遠レンズで被写体を撮影することによって被写体を大きくすることになるので、詳細なパターンでさえ画像で見ることができる。逆に、撮像部11及び被写体が互いに近接している場合、広角レンズで被写体を撮影することによって被写体を小さく見せることになるので、詳細なパターンは画像内で見えなくなる。したがって、撮像部11と対象物との間の距離が同じであっても、領域選択部22は、広角レンズで撮影した画像の場合よりも望遠レンズで撮影した画像の場合に、より大きい面積を有する画像領域を選択することが可能である。 Alternatively, the area selection unit 22 may select an image area having a different area depending on whether the image is taken with a telephoto lens or a wide-angle lens. Generally, when the image pickup unit 11 and the subject (object) are separated from each other, the subject is enlarged by shooting the subject with a telephoto lens, so even a detailed pattern can be seen in the image. it can. On the contrary, when the image pickup unit 11 and the subject are close to each other, the subject is made to appear smaller by photographing the subject with the wide-angle lens, so that the detailed pattern cannot be seen in the image. Therefore, even if the distance between the image pickup unit 11 and the object is the same, the region selection unit 22 has a larger area in the case of the image taken by the telephoto lens than in the case of the image taken by the wide-angle lens. It is possible to select the image area to have.

あるいは、領域選択部22は、撮影された画像の解像度に応じて異なる領域を有する画像領域を選択してもよい。一般的に、画像解像度が低い場合には被写体の詳細なパターンが視認されないため、比較的狭い領域を選択しても、その領域がどのように適用されるかに関わらず、実質的に一定の平均色値が得られる。一方、画像の解像度が高い場合には被写体の詳細なパターンが視認されるため、比較的広い領域が選択されない限り、平均色値は領域の位置などによって変化することになる。したがって、領域選択部22は、撮像部11と対象物との間の距離が同じであっても、画像解像度が高いほど、より大きい面積を有する画像領域を選択することが可能である。 Alternatively, the area selection unit 22 may select an image area having different areas depending on the resolution of the captured image. In general, when the image resolution is low, the detailed pattern of the subject is not visible, so even if you select a relatively narrow area, it is substantially constant regardless of how that area is applied. The average color value is obtained. On the other hand, when the resolution of the image is high, the detailed pattern of the subject is visually recognized, so that the average color value changes depending on the position of the region or the like unless a relatively wide region is selected. Therefore, even if the distance between the image pickup unit 11 and the object is the same, the region selection unit 22 can select an image region having a larger area as the image resolution is higher.

あるいは、領域選択部22は、輝度値が輝度値限界よりも大きい画像内の画素領域を除外した画像領域を選択してもよい。「輝度値限界」は、白飛び、黒潰れなど、コントラストの差が認識できない輝度値を指す。画像内の被写体において、限界よりも明るい部分が完全な白になる部分の限界明度における白は、上限輝度値と呼ばれ、又は「白飛びしないハイライト」として知られている。一般的に、白飛びした領域は、例えば85%以上、90%以上などの被写体の反射率に相当する画素領域である。一方で、画像内の被写体において、限界よりも暗い部分が完全な黒になる部分の限界暗度における黒は、下限輝度値と呼ばれ、又は「黒潰れしないシャドウ」として知られている。一般的には、黒潰れした領域は、例えば3%以下、5%以下などの被写体の反射率に相当する画素領域である。このように、領域選択部22は、完全な白又は完全な黒と考えられる画素領域を除く画像領域を選択してもよい。 Alternatively, the area selection unit 22 may select an image area excluding the pixel area in the image whose brightness value is larger than the brightness value limit. The "luminance value limit" refers to a brightness value at which the difference in contrast cannot be recognized, such as overexposure and underexposure. In the subject in the image, the white at the limit brightness of the portion where the portion brighter than the limit becomes completely white is called the upper limit luminance value, or is known as "highlight without overexposure". In general, the overexposed area is a pixel area corresponding to the reflectance of a subject such as 85% or more and 90% or more. On the other hand, in the subject in the image, the black at the limit darkness of the portion where the portion darker than the limit becomes completely black is called the lower limit luminance value, or is known as "shadow that does not collapse black". In general, the blackened area is a pixel area corresponding to the reflectance of a subject such as 3% or less and 5% or less. In this way, the area selection unit 22 may select an image area excluding the pixel area considered to be completely white or completely black.

あるいは、領域選択部22は、画像内の対象物全体を画像領域として選択してもよい。 Alternatively, the area selection unit 22 may select the entire object in the image as the image area.

照明条件補正部23は、画像取得部21によって取得された画像データに基づいて、画像が撮影された照明条件を計算し、計算された照明条件に従って、その画像データの色値を補正する。そのため、測定対象物と、照明補正用の約18%の反射率の標準グレーカードとを一緒に撮影するか、又は同じ照明条件で、例えば事前に別々に撮影する。この標準グレーデータを用いて、次に照明条件補正部23は、例えば下記の原理に従って、対象物の画像データの色値を補正する。 The lighting condition correction unit 23 calculates the lighting condition on which the image was taken based on the image data acquired by the image acquisition unit 21, and corrects the color value of the image data according to the calculated lighting condition. Therefore, the object to be measured and a standard gray card having a reflectance of about 18% for illumination correction are photographed together, or are photographed separately in advance under the same lighting conditions, for example. Using this standard gray data, the lighting condition correction unit 23 then corrects the color value of the image data of the object according to the following principle, for example.

最初に、所与の照明条件下で標準グレーを撮影及び測定して得た、リニアsRGB値(R,G,B)Gray−Measuredと、同じ標準グレーが規定された色空間(通常はD65又はD50)において事前に測定及び計算された、リニアsRGB値(R,G,B)Gray−Standardとの差が、補正値(R,G,B)Correction−Factorとして得られる。 First, a linear sRGB value (R, G, B) Gray-Measured obtained by photographing and measuring a standard gray under given lighting conditions and a color space (usually D65 or D65) in which the same standard gray is defined. The difference from the linear sRGB value (R, G, B) Gray-Standard previously measured and calculated in D50) is obtained as the correction value (R, G, B) Direction-Factor.

Figure 0006891189
Figure 0006891189

補正値(R,G,B)Correction−Factorを用いて、照明条件補正部23は、次式で示すように、対象物の画像データのsRGB値(R,G,B)Measuredを補正する。 Correction value (R, G, B) Using the Direction-Factor , the illumination condition correction unit 23 corrects the sRGB value (R, G, B) Measured of the image data of the object as shown by the following equation.

Figure 0006891189
Figure 0006891189

一方、照明条件補正部23は、撮像部11によって撮像された画像データの色値をL表色系値に変換してもよく、次に、標準グレーデータを用いて下記で説明する原理に従って、対象物の画像データの色値を補正する。 On the other hand, the illumination condition correction unit 23 may convert the color value of the image data captured by the imaging unit 11 into an L * a * b * color system value, and then uses the standard gray data as described below. The color value of the image data of the object is corrected according to the principle described.

この場合、所与の照明条件下で標準グレーを撮影及び測定して得た、色度値(L,a,b)Gray−Measuredと、同じ標準グレーが規定された色空間(通常はD65又はD50)において事前に測定又は計算された、色度値(L,a,b)Gray−Standardとの差が、補正値(L,a,b)Correction−Factorとして得られる。 In this case, the chromaticity value (L, a, b) Gray-Measured obtained by photographing and measuring the standard gray under a given lighting condition and the same standard gray as the defined color space (usually D65 or). The difference from the chromaticity value (L, a, b) Gray-Standard previously measured or calculated in D50) is obtained as the correction value (L, a, b) Direction-Factor.

Figure 0006891189
Figure 0006891189

補正値(L,a,b)Correction−Factorを用いて、照明条件補正部23は、次式で示すように、対象物の画像データの色度値(L,a,b)Measuredを補正する。 Correction value (L, a, b) Using the Direction-Factor , the illumination condition correction unit 23 corrects the chromaticity value (L, a, b) Measured of the image data of the object as shown by the following equation. ..

Figure 0006891189
Figure 0006891189

これを介して、基準光源と撮影光源との間の差は容易に補正され、そのため、画像が基準光源とは異なる色温度を有する光源下で撮影される場合でも、端末装置1によって測定された色差は、常に基準光源でのグレー値からの色差として見なすことができる。 Through this, the difference between the reference light source and the photographing light source is easily corrected, and therefore, even when the image is photographed under a light source having a color temperature different from that of the reference light source, it is measured by the terminal device 1. The color difference can always be regarded as the color difference from the gray value at the reference light source.

平均値計算部24は、照明条件補正部23によって補正された画像データの色値から、領域選択部22によって選択された画像領域における色値の平均である、平均色値を計算する。このとき、平均値計算部24は、例えば、選択された画像領域内の各画素のsR値、sG値、sB値の平均値を計算する。しかし、平均値計算部24は、対象画像領域におけるRGB値の取り扱いに限定されず、L値などの任意の所望の色空間における色値の平均値を計算してもよい。 The average value calculation unit 24 calculates an average color value, which is the average of the color values in the image area selected by the area selection unit 22, from the color values of the image data corrected by the illumination condition correction unit 23. At this time, the average value calculation unit 24 calculates, for example, the average value of the sR value, sG value, and sB value of each pixel in the selected image area. However, the average value calculation unit 24 is not limited to handling RGB values in the target image region, and may calculate the average value of color values in any desired color space such as L * a * b * values.

例えば、L色空間における色値の平均値が計算される場合、平均値計算部24は、照明条件補正部23によって補正された画像データのsRGB値を、以下に示される式を介して変換する。 For example, when the average value of the color values in the L * a * b * color space is calculated, the average value calculation unit 24 calculates the sRGB value of the image data corrected by the illumination condition correction unit 23 by the formula shown below. Convert via.

最初に平均値計算部24は、元の画像データのガンマ補正sRGB値sR、sG、sBを取り込み、sRGB規格に従ってガンマ補正を反転して、次式で示すようにリニアsRGB値R、G、Bを求める。 First, the average value calculation unit 24 takes in the gamma-corrected sRGB values sR, sG, and sB of the original image data, inverts the gamma correction according to the sRGB standard, and linear sRGB values R, G, and B as shown in the following equation. Ask for.

Figure 0006891189
Figure 0006891189

GとBは、Rに用いられるものと同様の式で計算することができる。 G and B can be calculated by the same formula as that used for R.

次に、平均値計算部24は、取得したRGB値を、次式で示すようにマトリクス変換を介してXYZ値に変換する。 Next, the average value calculation unit 24 converts the acquired RGB value into an XYZ value via matrix conversion as shown by the following equation.

Figure 0006891189
Figure 0006891189

このとき、平均値計算部24は、XYZ値の色温度を、Bradford及びVon Kriesによって提案されたような、色温度変換行列を用いて変換してもよい。 At this time, the average value calculation unit 24 may convert the color temperature of the XYZ value by using a color temperature conversion matrix as proposed by Bradford and Von Kries.

Figure 0006891189
Figure 0006891189

更に、平均値計算部24は、標準的なCIEの計算に基づいて、次式を介して、定められたXYZ値からL値を計算する。 Further, the average value calculation unit 24 calculates the L * a * b * value from the determined XYZ value via the following equation based on the standard CIE calculation.

Figure 0006891189
Figure 0006891189

ここで、Xn、Yn、及びZnは白色点座標である。このようにして、平均値計算部24は、例えば領域選択部22によって選択された画像領域における各画素の、L値、a値、b値の平均値を計算する。 Here, Xn, Yn, and Zn are white point coordinates. In this way, the average value calculation unit 24 calculates the average value of the L * value, the a * value, and the b * value of each pixel in the image area selected by the area selection unit 22, for example.

色差計算部25は、平均値計算部24によって計算された平均色値と、同一色空間における比較対象の色値の平均色値との間の色差を計算する。比較対象の色値は、例えば、記憶部14に予め記憶されている基準の平均色値であってもよく、又は異なる画像について平均値計算部24によって得られた平均色値であってもよい。例えば、sRGB値のための色差を求める場合、色差計算部25は次式に従って色差ΔEを計算して、平均値計算部24によって計算された平均色値が(R,G,B)で表され、比較対象の色値が(R,G,B)で表されるものとする。 The color difference calculation unit 25 calculates the color difference between the average color value calculated by the average value calculation unit 24 and the average color value of the color values to be compared in the same color space. The color value to be compared may be, for example, a reference average color value stored in advance in the storage unit 14, or may be an average color value obtained by the average value calculation unit 24 for different images. .. For example, when obtaining the color difference for the sRGB value, the color difference calculation unit 25 calculates the color difference ΔE according to the following equation, and the average color value calculated by the average value calculation unit 24 is (R 1 , G 1 , B 1 ). It is assumed that the color value to be compared is represented by (R 2 , G 2 , B 2).

Figure 0006891189
Figure 0006891189

一方、L値のための色差を求める場合、色差計算部25は次式に従って色差ΔEを計算して、平均値計算部24によって計算された平均色値が(L,a,b)で表され、比較対象の色値が(L,a,b)で表されるものとする。 On the other hand, when obtaining the color difference for the L * a * b * value, the color difference calculation unit 25 calculates the color difference ΔE according to the following equation, and the average color value calculated by the average value calculation unit 24 is (L 1 , a). It shall be represented by 1, b 1 ), and the color value to be compared shall be represented by (L 2 , a 2 , b 2 ).

Figure 0006891189
Figure 0006891189

次に、色差計算部25は、計算された色差ΔEの値を、例えば図2の参照番号63に示すように、表示部13に表示させる。 Next, the color difference calculation unit 25 causes the display unit 13 to display the calculated value of the color difference ΔE, for example, as shown by the reference number 63 in FIG.

図6は、端末装置1によって実行される操作例を示すフロー図である。図6の各ステップの処理は、記憶部14に記憶されているプログラムに基づいて、制御部20によって、端末装置1の各要素と協働して実行される。 FIG. 6 is a flow chart showing an operation example executed by the terminal device 1. The processing of each step of FIG. 6 is executed by the control unit 20 in cooperation with each element of the terminal device 1 based on the program stored in the storage unit 14.

最初に、画像取得部21は、撮像部11によって撮影された対象物の画像の画像データを取得する(S1)。次に領域選択部22は、上述のいずれか1つの方法を用いて、画像内の対象物における色値の平均を計算することになる、画像領域を選択する(S2)。照明条件補正部23は、S1で取得した画像データに基づいて、画像が撮影された照明条件を計算し、計算された照明条件に従ってその画像データの色値を補正する(S3)。次に、平均値計算部24は、S3で補正された画像データの色値から、S2で選択された画像領域における色値の平均である、平均色値を計算する(S4)。次に、色差計算部25は、S4で計算された平均色値と、同一色空間における比較対象の色値の平均色値との間の色差を計算し(S5)、S5で計算された色差の情報を表示部13に表示させる(S6)。そして図6の処理は終了する。 First, the image acquisition unit 21 acquires image data of an image of an object captured by the image pickup unit 11 (S1). Next, the area selection unit 22 selects an image area (S2), which is to calculate the average of the color values in the object in the image by using any one of the above methods. The illumination condition correction unit 23 calculates the illumination condition on which the image was taken based on the image data acquired in S1, and corrects the color value of the image data according to the calculated illumination condition (S3). Next, the average value calculation unit 24 calculates the average color value, which is the average of the color values in the image region selected in S2, from the color value of the image data corrected in S3 (S4). Next, the color difference calculation unit 25 calculates the color difference between the average color value calculated in S4 and the average color value of the color values to be compared in the same color space (S5), and the color difference calculated in S5. Information is displayed on the display unit 13 (S6). Then, the process of FIG. 6 ends.

端末装置は、撮像部11を必ずしも含む必要はないことに留意されたい。換言すると、端末装置は、カメラを搭載していない携帯端末であってもよい。この場合であっても、別の撮像装置で撮影された画像データを取得することによって、上述のように色差及び平均色値を測定することができる。 It should be noted that the terminal device does not necessarily include the imaging unit 11. In other words, the terminal device may be a mobile terminal not equipped with a camera. Even in this case, the color difference and the average color value can be measured as described above by acquiring the image data taken by another imaging device.

更に、色差に関する情報の出力は、表示部13における表示に制限されず、音声出力又は外部装置へのデータ出力など、別のフォーマットであってもよい。 Further, the output of the information regarding the color difference is not limited to the display on the display unit 13, and may be in another format such as audio output or data output to an external device.

図7は、端末装置1Aの構成を概略で示す図である。端末装置1Aは、対象物の画像ショットの画像データから、屋外看板又は構造物の外部又は内部で使用される壁装材などの対象物の平均色値を計算し、その値を同一対象物の新しい断片又は限度見本の平均色値と比較して、対象物が耐用末期であるか否かを判定する。端末装置1Aのハードウェア構成は、端末装置1のハードウェア構成と実質的に同じであるが、識別情報取得部21A及び判定部26Aが、画像取得部21、領域選択部22、照明条件補正部23、平均値計算部24、及び色差計算部25に加えて制御部20Aの機能ブロックとして含まれることのみ、端末装置1とは異なる。したがって、端末装置1とは異なる端末装置1Aの部分のみを以下では説明し、端末装置1と同じ部品の説明は省略する。 FIG. 7 is a diagram schematically showing the configuration of the terminal device 1A. The terminal device 1A calculates the average color value of an object such as a wall covering used outside or inside an outdoor signboard or a structure from the image data of an image shot of the object, and sets the value as the same object. Determine if the object is at the end of its useful life by comparing it to the average color value of the new fragment or limit swatch. The hardware configuration of the terminal device 1A is substantially the same as the hardware configuration of the terminal device 1, but the identification information acquisition unit 21A and the determination unit 26A are the image acquisition unit 21, the area selection unit 22, and the lighting condition correction unit. It differs from the terminal device 1 only in that it is included as a functional block of the control unit 20A in addition to the 23, the average value calculation unit 24, and the color difference calculation unit 25. Therefore, only the part of the terminal device 1A different from the terminal device 1 will be described below, and the description of the same parts as the terminal device 1 will be omitted.

図8は、端末装置1Aの記憶部14に記憶された情報例を示す図である。端末装置1Aの記憶部14は、平均値計算部24によって計算された平均色値と同じ色空間における色値である複数の基準色値を、複数の対象物の識別情報に関連付けて記憶する。図8に示された例では、この識別情報は、壁装材などの対象物の製品番号(No.1、No.2など)である。一方、基準色値は、製造時(新品時)の対象物の平均色値Anと、対象物の色が経時的に退色し、対象物が耐用末期にある状態の限度見本の平均色値Bnである(ここで、n=1、2、・・・)。これらの基準色値は、例えばsRGB値若しくはL値であってもよく、又は更に別の色空間における色値であってもよい。記憶された平均色値An及びBnは、照明条件補正部23で用いられる手段と同じ手段で照明条件を補正して得られる値、又は、基準光源下で撮影された画像の画像データから得られる値である。 FIG. 8 is a diagram showing an example of information stored in the storage unit 14 of the terminal device 1A. The storage unit 14 of the terminal device 1A stores a plurality of reference color values, which are color values in the same color space as the average color value calculated by the average value calculation unit 24, in association with the identification information of the plurality of objects. In the example shown in FIG. 8, this identification information is the product number (No. 1, No. 2, etc.) of the object such as the wall covering material. On the other hand, the standard color values are the average color value An of the object at the time of manufacture (when new) and the average color value Bn of the limit sample in the state where the color of the object fades over time and the object is at the end of its useful life. (Here, n = 1, 2, ...). These reference color values may be, for example, an sRGB value or an L * a * b * value, or may be a color value in yet another color space. The stored average color values An and Bn are values obtained by correcting the lighting conditions by the same means as those used in the lighting condition correction unit 23, or are obtained from image data of an image taken under a reference light source. The value.

識別情報取得部21Aは、画像取得部21によって取得された画像内の対象物の、製品番号などの識別情報を取得する。識別情報取得部21Aは、例えば、端末装置1Aのユーザによる入力操作、読み取られたバーコードなどに応答して、識別情報を取得してもよい。 The identification information acquisition unit 21A acquires identification information such as a product number of the object in the image acquired by the image acquisition unit 21. The identification information acquisition unit 21A may acquire the identification information in response to, for example, an input operation by the user of the terminal device 1A, a read bar code, or the like.

端末装置1Aの色差計算部25は、記憶部14に記憶された複数の基準色値の中から、識別情報取得部21Aによって取得された識別情報に対応する基準色値を取得する。次に、色差計算部25は、領域選択部22によって選択され、照明条件補正部23によって照明条件が補正された画像領域の画像データから、基準色値と、平均値計算部24によって計算された平均色値との間の色差を計算する。 The color difference calculation unit 25 of the terminal device 1A acquires the reference color value corresponding to the identification information acquired by the identification information acquisition unit 21A from the plurality of reference color values stored in the storage unit 14. Next, the color difference calculation unit 25 is calculated by the reference color value and the average value calculation unit 24 from the image data of the image region selected by the area selection unit 22 and corrected by the illumination condition correction unit 23. Calculate the color difference from the average color value.

判定部26Aは、色差計算部25によって計算された色差ΔEが、所定の色差範囲内であるか否かを判定する。このとき、判定部26Aは、ΔEが所定の色差範囲外の値である場合に、対象物が退色して耐用末期である旨の表示を表示部13に表示させる。一方、判定部26Aは、ΔEが所定の色差範囲内の値である場合に、対象物が退色しておらず、耐用末期ではない旨の表示を表示部13に表示させる。色差範囲は、対象物を同時に見るとき、対象物同士間の色の違いが、人間の目では認識できない範囲(例えばL色空間を用いる場合はΔE<2)であってよく、又は、対象物を遠くから見るとき、構造及び色を含む対象物の表面におけるパターンの違いが、人によって確認できない範囲(例えばL色空間を用いる場合はΔE<10)であってもよい。 The determination unit 26A determines whether or not the color difference ΔE calculated by the color difference calculation unit 25 is within a predetermined color difference range. At this time, when ΔE is a value outside the predetermined color difference range, the determination unit 26A causes the display unit 13 to display a display indicating that the object has faded and is at the end of its useful life. On the other hand, when ΔE is a value within a predetermined color difference range, the determination unit 26A causes the display unit 13 to display a display indicating that the object has not faded and is not at the end of its useful life. The color difference range may be a range in which the color difference between the objects cannot be recognized by the human eye when the objects are viewed at the same time (for example, ΔE <2 when using the L * a * b * color space). Or, when the object is viewed from a distance, the difference in the pattern on the surface of the object including the structure and color is within the range that cannot be confirmed by humans (for example, ΔE <10 when using the L * a * b * color space). There may be.

対象物が、記憶部14に記憶されている基準色値を有していない場合であっても、判定部26Aは、対象物及び同じ対象物の新しい断片又は限度見本を一緒に撮影し、次に両方の色差を求めることによって、対象物の色が退色したか否かを同様に判定できる。 Even if the object does not have the reference color value stored in the storage unit 14, the determination unit 26A photographs the object and a new fragment or limit sample of the same object together, and then By obtaining the color difference between the two, it can be similarly determined whether or not the color of the object has faded.

図9は、端末装置1Aが実行する操作例を示すフロー図である。図9の各ブロックの処理は、記憶部14に記憶されているプログラムに基づいて、制御部20Aによって、端末装置1の各要素と協働して実行される。 FIG. 9 is a flow chart showing an operation example executed by the terminal device 1A. The processing of each block of FIG. 9 is executed by the control unit 20A in cooperation with each element of the terminal device 1 based on the program stored in the storage unit 14.

S11〜S14における、対象物の画像データの取得、画像領域の選択、照明条件に応じた画像データの色値の補正、及び平均色値の計算は、図6のS1〜S4と同じである。S14の後、識別情報取得部21Aは、S11で取得した画像中の対象物の識別情報を取得する(S15)。次に、色差計算部25は、S15で取得した識別情報に対応する基準色値を記憶部14から取得し(S16)、その基準色値とS14で計算された平均色値との間の色差を計算する(S17)。更に、判定部26Aは、S17で計算された色差ΔEが所定の閾値Tよりも低いか否かを判定する(S18)。ΔE<Tである場合(S18でYes)、判定部26Aは、対象物が退色しておらず耐用末期ではない旨の表示を表示部13に表示し(S19)、その一方で、ΔE≧Tである場合(S18でNo)、判定部26Aは、対象物が退色しており耐用末期である旨の表示を表示部13に表示させる(S20)。そして図9の処理は終了する。 In S11 to S14, acquisition of image data of an object, selection of an image area, correction of color values of image data according to lighting conditions, and calculation of average color values are the same as in S1 to S4 of FIG. After S14, the identification information acquisition unit 21A acquires the identification information of the object in the image acquired in S11 (S15). Next, the color difference calculation unit 25 acquires a reference color value corresponding to the identification information acquired in S15 from the storage unit 14 (S16), and the color difference between the reference color value and the average color value calculated in S14. Is calculated (S17). Further, the determination unit 26A determines whether or not the color difference ΔE calculated in S17 is lower than the predetermined threshold value T (S18). When ΔE <T (Yes in S18), the determination unit 26A displays on the display unit 13 that the object has not faded and is not at the end of its useful life (S19), while ΔE ≥ T. In the case of (No in S18), the determination unit 26A causes the display unit 13 to display a display indicating that the object has faded and is at the end of its useful life (S20). Then, the process of FIG. 9 ends.

図10は、端末装置1Bの構成を概略で示す図である。端末装置1Bは、例えば、壁装材などの印刷物である第1の対象物を撮影することによって得られた第1の画像の第1の平均色値を計算し、印刷物を貼る壁面などの第2の対象物を撮影することによって得られた第2の画像の第2の平均色値を計算して、両方間の色差を相殺するよう印刷物の印刷データを補正する。端末装置1Bのハードウェア構成は、端末装置1のハードウェア構成と実質的に同じであるが、印刷データ補正部26Bが、画像取得部21、領域選択部22、照明条件補正部23、平均値計算部24、及び色差計算部25に加えて制御部20Bの機能ブロックとして含まれることのみ、端末装置1とは異なる。したがって、端末装置1とは異なる端末装置1Bの部分のみを以下では説明し、端末装置1と同じ部品の説明は省略する。 FIG. 10 is a diagram schematically showing the configuration of the terminal device 1B. The terminal device 1B calculates the first average color value of the first image obtained by photographing the first object which is a printed matter such as a wall covering material, and calculates the first average color value of the first image to which the printed matter is attached. The second average color value of the second image obtained by photographing the second object is calculated, and the print data of the printed matter is corrected so as to cancel the color difference between the two. The hardware configuration of the terminal device 1B is substantially the same as the hardware configuration of the terminal device 1, but the print data correction unit 26B has an image acquisition unit 21, an area selection unit 22, a lighting condition correction unit 23, and an average value. It differs from the terminal device 1 only in that it is included as a functional block of the control unit 20B in addition to the calculation unit 24 and the color difference calculation unit 25. Therefore, only the part of the terminal device 1B different from the terminal device 1 will be described below, and the description of the same parts as the terminal device 1 will be omitted.

図11は、端末装置1Bの機能を示す概略図である。端末装置1Bは、例えば、レンガ模様の壁面72と同じ色及びパターンを有する壁装材を印刷によって作り出す際の、カラーマッチングに用いられる。ユーザは、端末装置1Bの撮像部11を用いて、壁面72に貼り付ける壁装材の印刷物71を、照明補正用の標準グレーカード73と一緒に(又は同じ照明条件で別個に)撮影し、同様に壁面72及び標準グレーカード73を撮影する。端末装置1Bは、第1の平均色値及び第2の平均色値を計算する。これらの照明条件は、印刷物71の画像50A及び壁面72の画像50Bのためにそれぞれ補正されている。更に、端末装置1Bは、2つの平均色値間の色差ΔEを計算し、その色差ΔEを相殺するように、プリンタ4に送信する印刷物71の印刷データを補正する。印刷物71が、平均色値同士間の色差が排除されるように作り出されると、人が印刷物71と壁面72との間の違いを、近くで確認することが可能となる。しかし、遠くからは詳細なパターンを確認することができないので、印刷物71は、遠くから見ると壁面72と同じ色及びパターンを有する壁装材として現れることになる。したがって、壁面72に貼られたときでも目立たない壁装材が、このカラーマッチングの結果、印刷物として得ることができる。 FIG. 11 is a schematic view showing the functions of the terminal device 1B. The terminal device 1B is used for color matching, for example, when producing a wall covering material having the same color and pattern as the brick-patterned wall surface 72 by printing. Using the image pickup unit 11 of the terminal device 1B, the user photographs the printed matter 71 of the wall covering material to be attached to the wall surface 72 together with the standard gray card 73 for lighting correction (or separately under the same lighting conditions). Similarly, the wall surface 72 and the standard gray card 73 are photographed. The terminal device 1B calculates the first average color value and the second average color value. These lighting conditions are corrected for the image 50A of the printed matter 71 and the image 50B of the wall surface 72, respectively. Further, the terminal device 1B calculates the color difference ΔE between the two average color values, and corrects the print data of the printed matter 71 transmitted to the printer 4 so as to cancel the color difference ΔE. When the printed matter 71 is created so as to eliminate the color difference between the average color values, a person can check the difference between the printed matter 71 and the wall surface 72 in close proximity. However, since the detailed pattern cannot be confirmed from a distance, the printed matter 71 appears as a wall covering material having the same color and pattern as the wall surface 72 when viewed from a distance. Therefore, as a result of this color matching, a wall covering material that is inconspicuous even when attached to the wall surface 72 can be obtained as a printed matter.

端末装置1Bの画像取得部21は、印刷物71である第1の対象物を撮影することによって得られた第1の画像データ、及び、印刷物の色の比較対象としての役割を担う壁面72である第2の対象物を撮影することによって得られた第2の画像データを、画像データとして取得する。画像データのこれらの例は、撮像部11によって撮影されてもよく、又は別の撮像装置によって撮影されてもよい。 The image acquisition unit 21 of the terminal device 1B is a wall surface 72 that serves as a comparison target for the colors of the first image data obtained by photographing the first object, which is the printed matter 71, and the color of the printed matter. The second image data obtained by photographing the second object is acquired as image data. These examples of image data may be captured by the imaging unit 11 or may be captured by another imaging device.

平均値計算部24は、照明条件補正部23によって補正された画像データの色値から、領域選択部22によって選択された画像領域の平均色値である、第1及び第2の両画像データの第1及び第2の平均色値を計算する。 The average value calculation unit 24 is the average color value of the image area selected by the area selection unit 22 from the color values of the image data corrected by the illumination condition correction unit 23, and is the average color value of both the first and second image data. Calculate the first and second average color values.

色差計算部25は、平均値計算部24によって計算された第1の平均色値と第2の平均色値との間の色差ΔEを計算し、次にこの色差ΔEが所定の色差範囲内であるか否かを示す情報を表示部13に表示させる。 The color difference calculation unit 25 calculates the color difference ΔE between the first average color value and the second average color value calculated by the average value calculation unit 24, and then the color difference ΔE is within a predetermined color difference range. Information indicating whether or not there is is displayed on the display unit 13.

色差計算部25によって計算された色差ΔEが、所定の色差範囲内にない場合、印刷データ補正部26Bは、以下で説明する式に従って色差を小さくするよう、印刷物71の印刷データの色値(YMCK)を補正する。この色差範囲は、例えば、印刷物71のパターンと壁面72との間の差が、遠くからでは認識できない範囲(例えば、L色空間においてΔE<10)であってもよい。 When the color difference ΔE calculated by the color difference calculation unit 25 is not within the predetermined color difference range, the print data correction unit 26B determines the color value (YMCK) of the print data of the printed matter 71 so as to reduce the color difference according to the formula described below. ) Is corrected. The color difference range may be, for example, a range in which the difference between the pattern of the printed matter 71 and the wall surface 72 cannot be recognized from a distance (for example, ΔE <10 in the L * a * b * color space).

プリンタ4に送られた印刷物71の印刷データ(Y,M,C,K)Printed−YMCKは、以下の式に従った画像データのリニアsRGB値(R,G,B)Original−Photoから求められる(加法混色から減法混色に変換される)。 The printed data (Y, M, C, K) Printed-YMCK of the printed matter 71 sent to the printer 4 is obtained from the linear sRGB values (R, G, B) Original-Photo of the image data according to the following formula. (Converted from additive color mixing to subtractive color mixing).

Figure 0006891189
Figure 0006891189

元のsRGB値(R,G,B)Original−Photoは、照明条件補正部23に用いられた手段と同じ手段を用いて、標準グレーデータに応じて照明条件を補正した値とすることが可能である。プリンタ4は、印刷データ(Y,M,C,K)Printed−YMCKに従って印刷物71を印刷し、得られた画像は次に撮像部11を用いて撮影される。 The original sRGB value (R, G, B) Original-Photo can be set to a value obtained by correcting the lighting condition according to the standard gray data by using the same means as that used for the lighting condition correction unit 23. Is. The printer 4 prints the printed matter 71 according to the print data (Y, M, C, K) Printed-YMCK , and the obtained image is then taken by the image pickup unit 11.

次式に示すように、撮影画像50AのリニアsRGB値(R,G,B)1st−Print−Photoと、元のsRGB値(R,G,B)Original−Photoとの間の差が、(R,G,B)1st−Compensation−Factorとして得られる。 As shown in the following equation, the difference between the linear sRGB value (R, G, B) 1st-Print-Photo of the captured image 50A and the original sRGB value (R, G, B) Original-Photo is ( R, G, B) Obtained as 1st-Compensation-Factor.

Figure 0006891189
Figure 0006891189

(R,G,B)1st−Print−Photoと、比較対象としての役割を担う画像50BのsRGB値との間の色差が所定の色差範囲内に入らない場合、次式で示すように、印刷データ補正部26Bは、元のsRGB値(R,G,B)Original−Photoから差(R,G,B)1st−Compensation−Factorを差し引くことによって、次の印刷データ(Y,M,C,K)2nd−Printed−YMCKを求める。換言すると、印刷データ補正部26Bは、色の減法混色において補色を相対的に増加させることで、色の加法混色における過剰な色の補正を行う。 (R, G, B) If the color difference between the 1st-Print-Photo and the sRGB value of the image 50B, which plays a role as a comparison target, does not fall within the predetermined color difference range, print as shown in the following equation. The data correction unit 26B subtracts the difference (R, G, B) 1st-Compensation-Factor from the original sRGB value (R, G, B) Original-Photo to obtain the next print data (Y, M, C, K) Obtain the 2nd-Printed-YMCK. In other words, the print data correction unit 26B corrects excessive colors in additive color mixing by relatively increasing complementary colors in subtractive color mixing.

Figure 0006891189
Figure 0006891189

次に、プリンタ4は、印刷データ(Y,M,C,K)2nd−Printed−YMCKに従って印刷物71を再印刷し、得られた画像は次に撮像部11を用いて撮影される。 Next, the printer 4 reprints the printed matter 71 according to the print data (Y, M, C, K) 2nd-Printed-YMCK , and the obtained image is then taken by the imaging unit 11.

第2の撮影画像50AのリニアsRGB値と、比較対象としての役割を担う画像50BのsRGB値との間の色差が、所定の色差範囲内に入らない場合、印刷データ補正部26Bは、次式に示すように、元のsRGB値(R,G,B)Original−Photoからの第1回目と同様に得られた差(R,G,B)2nd−Compensation−Factorを差し引くことによって、次の印刷データ(Y,M,C,K)3rd−Printed−YMCKを求める。 When the color difference between the linear sRGB value of the second captured image 50A and the sRGB value of the image 50B which plays a role as a comparison target does not fall within the predetermined color difference range, the print data correction unit 26B uses the following equation. As shown in, by subtracting the difference (R, G, B) 2nd-Compensation-Factor obtained in the same manner as the first time from the original sRGB value (R, G, B) Original-Photo , the following Print data (Y, M, C, K) 3rd-Printed-YMCK is obtained.

Figure 0006891189
Figure 0006891189

その後同様に、印刷データ補正部26Bは、撮影画像50AのリニアsRGB値と、比較対象としての役割を担う画像50BのsRGB値との間の色差が、所定の色差範囲内となるまで、印刷データを繰り返し補正する。 After that, similarly, the print data correction unit 26B prints data until the color difference between the linear sRGB value of the captured image 50A and the sRGB value of the image 50B which plays a role as a comparison target is within a predetermined color difference range. Is repeatedly corrected.

図12は、端末装置1Bによって実行される操作例を示すフロー図である。図12の各ブロックの処理は、記憶部14に記憶されているプログラムに基づいて、制御部20Bによって、端末装置1Bの各要素と協働して実行される。 FIG. 12 is a flow chart showing an operation example executed by the terminal device 1B. The processing of each block of FIG. 12 is executed by the control unit 20B in cooperation with each element of the terminal device 1B based on the program stored in the storage unit 14.

最初に、画像取得部21は、印刷データYMCKに従って印刷された印刷物71の画像50Aの画像データと、比較対象の役割を担う壁面72などの画像50Bの画像データとを取得する(S21)。次に領域選択部22は、上述のいずれか1つの方法を用いて、色値の平均を計算することになる、画像50A及び50Bの各々の画像領域を選択する(S22)。照明条件補正部23は、S21で取得した画像データに基づいて、画像50A及び50Bがそれぞれ撮影された照明条件を計算し、計算された照明条件に従ってその画像データの色値を補正する(S23)。次に平均値計算部24は、S22で選択された画像領域について、S23で補正された画像50A及び50Bの画像データのそれぞれの色値から、第1の平均色値R、及び第2の平均色値Rを計算する(S24)。 First, the image acquisition unit 21 acquires the image data of the image 50A of the printed matter 71 printed according to the print data YMCK and the image data of the image 50B such as the wall surface 72 that plays the role of the comparison target (S21). Next, the area selection unit 22 selects each image area of the images 50A and 50B, which is to calculate the average of the color values, by using any one of the above methods (S22). The lighting condition correction unit 23 calculates the lighting conditions in which the images 50A and 50B are captured based on the image data acquired in S21, and corrects the color value of the image data according to the calculated lighting conditions (S23). .. Next, the average value calculation unit 24 sets the first average color value R 1 G 1 B 1 from the color values of the image data of the images 50A and 50B corrected in S23 for the image region selected in S22. And the second average color value R 2 G 2 B 2 is calculated (S24).

次に色差計算部25は、S24で計算された第1の平均色値Rと第2の平均色値Rとの間の色差を計算する(S25)。印刷データ補正部26Bは、S25で計算された色差ΔEが所定の閾値Tよりも小さいか否かを判定する(S26)。図12の処理はΔE<Tの場合(S26でYes)、終了する。一方、ΔE≧Tの場合(S26でNo)、印刷データ補正部26Bは、色差を小さくするよう、上述の式に従って印刷物71の印刷データYMCKを補正する(S27)。次に処理はS21に戻り、上述のステップを繰り返す。 Next, the color difference calculation unit 25 calculates the color difference between the first average color value R 1 G 1 B 1 calculated in S24 and the second average color value R 2 G 2 B 2 (S25). The print data correction unit 26B determines whether or not the color difference ΔE calculated in S25 is smaller than the predetermined threshold value T (S26). The process of FIG. 12 ends when ΔE <T (Yes in S26). On the other hand, when ΔE ≧ T (No in S26), the print data correction unit 26B corrects the print data YMCK of the printed matter 71 according to the above formula so as to reduce the color difference (S27). Next, the process returns to S21 and repeats the above steps.

図13は、端末装置1Cの構成を概略で示す図である。端末装置1Cは、例えば、構造物の外部又は内部で使用される壁装材などの対象物の平均色値を、その対象物を撮影して得られた画像の画像データから計算し、記憶部14に記憶された複数の壁装材の中から、平均色値が対象物の色値に近い壁装材を参照し、参照した壁装材に関する情報を表示部13に表示する。端末装置1Cのハードウェア構成は、端末装置1のハードウェア構成と実質的に同じであるが、周波数変換部26C、比較処理部27C、及び参照部28Cが、画像取得部21、領域選択部22、照明条件補正部23、平均値計算部24、及び色差計算部25に加えて制御部20Cの機能ブロックとして含まれることのみ、端末装置1とは異なる。したがって、端末装置1とは異なる端末装置1Cの部分のみを以下では説明し、端末装置1と同じ部品の説明は省略する。 FIG. 13 is a diagram schematically showing the configuration of the terminal device 1C. The terminal device 1C calculates, for example, the average color value of an object such as a wall covering used inside or outside a structure from the image data of an image obtained by photographing the object, and stores the storage unit. From the plurality of wall covering materials stored in 14, the wall covering material whose average color value is close to the color value of the object is referred to, and information on the referenced wall covering material is displayed on the display unit 13. The hardware configuration of the terminal device 1C is substantially the same as the hardware configuration of the terminal device 1, but the frequency conversion unit 26C, the comparison processing unit 27C, and the reference unit 28C are the image acquisition unit 21 and the area selection unit 22. The terminal device 1 is different from the terminal device 1 only in that it is included as a functional block of the control unit 20C in addition to the lighting condition correction unit 23, the average value calculation unit 24, and the color difference calculation unit 25. Therefore, only the part of the terminal device 1C different from the terminal device 1 will be described below, and the description of the same parts as the terminal device 1 will be omitted.

図14は、端末装置1Cの記憶部14に記憶された情報例を示す図である。端末装置1Cの記憶部14は、複数の壁装材(対象物)の各々の、壁装材の製品番号(識別情報)、名称、製造時の画像(写真)、その画像の撮影条件、その画像の壁装材の平均色値、及び画像における色値の空間分布を空間周波数スペクトル領域内に変換することによって得られた周波数分布を記憶し、これら全ては互いに関連する。図14に示される例において、記憶された撮影条件には、撮影倍率、解像度、及び光源の色温度が含まれる。一方、色差計算部25が色差を計算するときに、比較対象の役割を担う基準色値の平均色値は、平均値計算部24によって計算された平均色値と同じ色空間における色値である。これらの基準色値は、例えばsRGB値若しくはL値であってもよく、又は更に別の色空間における色値であってもよい。 FIG. 14 is a diagram showing an example of information stored in the storage unit 14 of the terminal device 1C. The storage unit 14 of the terminal device 1C stores the product number (identification information), the name, the image (photograph) at the time of manufacture, the shooting condition of the image, and the shooting condition of each of the plurality of wall covering materials (objects). It stores the average color value of the wall covering of the image and the frequency distribution obtained by converting the spatial distribution of the color value in the image into the spatial frequency spectrum region, all of which are related to each other. In the example shown in FIG. 14, the stored imaging conditions include imaging magnification, resolution, and color temperature of the light source. On the other hand, when the color difference calculation unit 25 calculates the color difference, the average color value of the reference color value that plays the role of the comparison target is a color value in the same color space as the average color value calculated by the average value calculation unit 24. .. These reference color values may be, for example, an sRGB value or an L * a * b * value, or may be a color value in yet another color space.

図15は、壁装材画像、及び対応する周波数分布画像の例を示す図である。参照番号80A〜80Cは、木材、大理石、及び布地パターンを有する壁装材の画像を示し、参照番号90A〜90Cは、参照番号80A〜80Cで示された画像に対応する周波数分布の画像を、それぞれ示す。これらの周波数分布画像は、元の画像のx及びy方向における輝度値の空間分布にフーリエ変換することによって得られた画像であり、より高い周波数成分を有する点は、より明るい点で表される。参照番号90A〜90Cで示されるような画像が、周波数分布として端末装置1Cの記憶部14に記憶される。 FIG. 15 is a diagram showing an example of a wall covering image and a corresponding frequency distribution image. Reference numbers 80A-80C represent images of wall coverings with wood, marble, and fabric patterns, reference numbers 90A-90C represent images of frequency distribution corresponding to the images shown in reference numbers 80A-80C. Each is shown. These frequency distribution images are images obtained by Fourier transforming the spatial distribution of the luminance values in the x and y directions of the original image, and points having higher frequency components are represented by brighter points. .. Images as shown by reference numbers 90A to 90C are stored in the storage unit 14 of the terminal device 1C as a frequency distribution.

端末装置1Cの色差計算部25は、記憶部14に記憶された複数の基準色値の各々について、領域選択部22によって選択された画像領域の画像データから平均計算部24によって計算された平均色値から、色差を計算する。その照明条件は、照明条件補正部23によって補正されている。 The color difference calculation unit 25 of the terminal device 1C has an average color calculated by the average calculation unit 24 from the image data of the image area selected by the area selection unit 22 for each of the plurality of reference color values stored in the storage unit 14. Calculate the color difference from the value. The lighting condition is corrected by the lighting condition correction unit 23.

周波数変換部26Cは、画像取得部21によって取得された画像データが表す画像における色値の空間分布を、空間周波数スペクトル領域に変換して、周波数分布を取得する。この色値空間分布は、輝度値を含む空間分布であってもよい。一方、空間分布から周波数分布への変換の代表例としてフーリエ変換を行うが、積分変換、ラプラス変換、離散コサイン変換、離散ウェーブレット変換など、別の変換も用いてもよい。 The frequency conversion unit 26C converts the spatial distribution of color values in the image represented by the image data acquired by the image acquisition unit 21 into a spatial frequency spectrum region to acquire the frequency distribution. This color value spatial distribution may be a spatial distribution including a luminance value. On the other hand, although the Fourier transform is performed as a typical example of the transformation from the spatial distribution to the frequency distribution, another transform such as an integral transform, a Laplace transform, a discrete cosine transform, and a discrete wavelet transform may be used.

比較処理部27Cは、記憶部14に記憶された複数の壁装材(対象物)の周波数分布と、周波数変換部26Cが取得した周波数分布とを比較する。具体的には、比較処理部27Cは、記憶部14に記憶された各壁装材の周波数分布と、周波数変換部26Cによって取得された周波数分布との間のパターンマッチングを実行し、パターンが一致するか否かを判定する。 The comparison processing unit 27C compares the frequency distribution of the plurality of wall covering materials (objects) stored in the storage unit 14 with the frequency distribution acquired by the frequency conversion unit 26C. Specifically, the comparison processing unit 27C executes pattern matching between the frequency distribution of each wall covering material stored in the storage unit 14 and the frequency distribution acquired by the frequency conversion unit 26C, and the patterns match. Determine whether or not to do so.

あるいは、比較処理部27Cは、各周波数分布のスペクトル強度を一定の割合で変化させながらパターンマッチングを実行してもよい。輝度値周波数分布のスペクトル強度は、異なる撮影条件下では変化する可能性が高いため、比較処理部27Cは、パターンが互いに類似しているか否かを基に、一致しているか否かを判定してよい。 Alternatively, the comparison processing unit 27C may execute pattern matching while changing the spectral intensity of each frequency distribution at a constant rate. Since the spectral intensity of the luminance value frequency distribution is likely to change under different shooting conditions, the comparison processing unit 27C determines whether or not the patterns match based on whether or not the patterns are similar to each other. You can.

あるいは、比較処理部27Cは、記憶部14に記憶された各壁装材の周波数分布と、周波数変換部26Cによって取得された周波数分布とのヒストグラムを統計処理して、次に両方を比較してもよい。統計処理後の比較は、例えば、各スペクトルのピーク周波数、その半値幅、又はその両方を比較することである。各スペクトルに複数のピークが存在する場合には、それぞれのスペクトルの間で、個々のピーク周波数と半値幅とのセットを比較してもよい。 Alternatively, the comparison processing unit 27C statistically processes a histogram of the frequency distribution of each wall covering material stored in the storage unit 14 and the frequency distribution acquired by the frequency conversion unit 26C, and then compares both of them. May be good. The post-statistical comparison is, for example, comparing the peak frequency of each spectrum, its half width, or both. If there are multiple peaks in each spectrum, individual peak frequency and full width at half maximum sets may be compared between the respective spectra.

参照部28Cは、色差計算部25によって実行された計算結果と、比較処理部27Cによる比較結果とに従って、記憶部14に記憶された各壁装材の識別情報を参照する。例えば、参照部28Cは、記憶部14の各壁装材の製品番号を、パターンマッチングによって求められた色差及び周波数分布差が最も小さい方から順に抽出し、それらの製造番号、並びに名称、製造時の画像などの情報を、表示部13に表示させる。換言すると、参照部28Cは、記憶部14の撮像部11が撮影した画像と同じ壁装材を求め、複数の壁装材画像を分類した後、それらの画像を、色差及び周波数分布差が最も小さい画像から順に、ユーザに提示する。しかし、色差及び周波数分布差が最も小さい順からの表示に制限せず、最も小さい色差及び周波数分布差を有する壁装材のみを表示してもよく、又は、閾値よりも小さい色差と周波数分布差を有する壁装材を表示してもよい。 The reference unit 28C refers to the identification information of each wall covering material stored in the storage unit 14 according to the calculation result executed by the color difference calculation unit 25 and the comparison result by the comparison processing unit 27C. For example, the reference unit 28C extracts the product numbers of the wall covering materials of the storage unit 14 in order from the one with the smallest color difference and frequency distribution difference obtained by pattern matching, and their serial numbers, names, and manufacturing time. Information such as the image of is displayed on the display unit 13. In other words, the reference unit 28C obtains the same wall covering material as the image taken by the imaging unit 11 of the storage unit 14, classifies the plurality of wall covering material images, and then obtains the images having the largest color difference and frequency distribution difference. Present to the user in order from the smallest image. However, the display is not limited to the order in which the color difference and the frequency distribution difference are the smallest, and only the wall covering material having the smallest color difference and the frequency distribution difference may be displayed, or the color difference and the frequency distribution difference smaller than the threshold value may be displayed. The wall covering material having the above may be displayed.

周波数領域に変換された画像同士の間でパターンマッチングを実行したときの画像同士の間の差は、元の壁装材画像同士の間の差よりも大きくなる傾向がある。したがって、2つの段階の画像パターンマッチングを介して、すなわち色差及び周波数分布によって候補を絞り込むことによって、目標壁装材と同一の壁装材や類似の壁装材を、正確に求めることができる。 The difference between the images when pattern matching is performed between the images converted into the frequency domain tends to be larger than the difference between the original wall covering images. Therefore, the same wall covering material as the target wall covering material or a similar wall covering material can be accurately obtained through two-step image pattern matching, that is, by narrowing down the candidates by color difference and frequency distribution.

参照部28Cが、色差計算部25によって計算された色差、及び比較処理部27Cによるパターンマッチングを介して求められた周波数分布の差が最も小さい壁装材に関するウェブサイトが、表示部13に表示される。これを介して、端末装置1Cの制御プログラムは、壁装材が撮影される際に、ユーザを、壁装材のオンラインカタログ、又は壁装材を購入できる電子商取引サイトに案内するアプリケーションとして機能する。 A website relating to the wall covering material having the smallest difference in the color difference calculated by the reference unit 28C by the color difference calculation unit 25 and the frequency distribution obtained through pattern matching by the comparison processing unit 27C is displayed on the display unit 13. To. Through this, the control program of the terminal device 1C functions as an application that guides the user to an online catalog of the wall covering material or an electronic commerce site where the wall covering material can be purchased when the wall covering material is photographed. ..

図16は、端末装置1Cが実行する操作例を示すフロー図である。図16の各ステップの処理は、記憶部14に記憶されているプログラムに基づいて、制御部20Cによって、端末装置1Cの各要素と協働して実行される。 FIG. 16 is a flow chart showing an operation example executed by the terminal device 1C. The processing of each step of FIG. 16 is executed by the control unit 20C in cooperation with each element of the terminal device 1C based on the program stored in the storage unit 14.

S31〜S34における、対象物の画像データの取得、画像領域の選択、照明条件に応じた画像データの色値の補正、及び平均色値の計算は、図6のS1〜S4と同じである。S34の後、色差計算部25は、記憶部14に記憶された各基準色値と、S34で計算された平均色値との間の色差を計算する(S35)。周波数変換部26Cは、S32で選択された画像領域における色値の空間分布を周波数分布に変換する(S36)。次に、比較処理部27Cは、記憶部14に記憶されている各壁装材の周波数分布を、S36で変換して得られた周波数分布と比較する(すなわちパターンマッチングを実行する)(S37)。参照部28Cは、S35の計算結果における最も小さい色差、及びS37での比較結果における最も小さい差から順に、記憶部14の各壁装材の製品番号(識別情報)を参照し、その製品番号を、壁装材の名称、画像などと共に表示部13に表示させる(S38)。更に、参照部28Cは、S35の計算結果における色差が最も小さく、S37の比較結果における最も小さい差を有する壁装材に関するウェブサイトを、表示部13に表示させる(S39)。そして図16の処理は終了する。 In S31 to S34, acquisition of image data of an object, selection of an image area, correction of color values of image data according to lighting conditions, and calculation of average color values are the same as in S1 to S4 of FIG. After S34, the color difference calculation unit 25 calculates the color difference between each reference color value stored in the storage unit 14 and the average color value calculated in S34 (S35). The frequency conversion unit 26C converts the spatial distribution of color values in the image region selected in S32 into a frequency distribution (S36). Next, the comparison processing unit 27C compares the frequency distribution of each wall covering material stored in the storage unit 14 with the frequency distribution obtained by converting in S36 (that is, performs pattern matching) (S37). .. The reference unit 28C refers to the product number (identification information) of each wall covering material of the storage unit 14 in order from the smallest color difference in the calculation result of S35 and the smallest difference in the comparison result in S37, and refers to the product number. , The name of the wall covering material, the image, and the like are displayed on the display unit 13 (S38). Further, the reference unit 28C causes the display unit 13 to display a website relating to the wall covering material having the smallest color difference in the calculation result of S35 and the smallest difference in the comparison result of S37 (S39). Then, the process of FIG. 16 ends.

端末装置1A〜1Cは、端末装置単体として、耐用末期の判定、印刷物のカラーマッチング、及び壁装材検索の機能を実行可能であるが、これらの機能は、通信ネットワークを介して互いに接続された端末装置とサーバ装置とを含むシステムによって、実現することができる。上述の機能がこのようなシステムによって実現される場合の例が、以降で説明される。 The terminal devices 1A to 1C can execute the functions of end-of-life determination, color matching of printed matter, and wall covering material search as a single terminal device, but these functions are connected to each other via a communication network. It can be realized by a system including a terminal device and a server device. Examples of cases where the above functions are realized by such a system will be described below.

図17は、通信システム3Dの構成を概略で示す図である。通信システム3Dは、端末装置1Aのように、対象物としての役割を担う壁装材などの耐用末期を判定するシステムである。通信システム3Dは、端末装置1D及びサーバ装置2Dを含み、これらの装置は、有線又は無線通信ネットワーク5を介して、互いに通信可能に接続されている。 FIG. 17 is a diagram schematically showing the configuration of the communication system 3D. The communication system 3D is a system for determining the end of life of a wall covering material that plays a role as an object, such as the terminal device 1A. The communication system 3D includes a terminal device 1D and a server device 2D, and these devices are communicably connected to each other via a wired or wireless communication network 5.

端末装置1Dのハードウェア構成は、端末装置1Aのハードウェア構成と同じであり、端末装置1Dの制御部20Dの機能ブロックは、端末装置1Aの制御部20Aの機能ブロックと同じである。端末装置1Dの端末通信部15は、識別情報取得部21Aによって取得された壁装材などの対象物の識別情報をサーバ装置2Dに送信し、その識別情報が示す対象物に対応する基準色値をサーバ装置2Dから受信する。端末装置1Dの色差計算部25は、サーバ装置2Dから受信した基準色値と、平均値計算部24によって計算された平均色値との間の色差を計算する。端末装置1Dの判定部26Aは、色差に関する判定結果を示す情報を表示部13に表示させる。 The hardware configuration of the terminal device 1D is the same as the hardware configuration of the terminal device 1A, and the functional block of the control unit 20D of the terminal device 1D is the same as the functional block of the control unit 20A of the terminal device 1A. The terminal communication unit 15 of the terminal device 1D transmits the identification information of the object such as the wall covering material acquired by the identification information acquisition unit 21A to the server device 2D, and the reference color value corresponding to the object indicated by the identification information. Is received from the server device 2D. The color difference calculation unit 25 of the terminal device 1D calculates the color difference between the reference color value received from the server device 2D and the average color value calculated by the average value calculation unit 24. The determination unit 26A of the terminal device 1D causes the display unit 13 to display information indicating the determination result regarding the color difference.

サーバ装置2Dは、記憶部34、サーバ通信部35、及び制御部40Dを含む。端末装置1Aの記憶部14のように、記憶部34は、端末装置1Dの平均値計算部24によって計算された平均色値と同じ色空間における色値であり、複数の対象物の識別情報に関連した複数の基準色値を記憶する。記憶部34に記憶された情報の具体的な詳細は、図8に示す情報と同じである。サーバ通信部35は、端末装置1Dから識別情報を受信し、その識別情報が示す、対象物に対応する基準色値を、端末装置1Dに送信する。制御部40Dは、CPU、RAM、ROMなどを含み、記憶部34に記憶された複数の基準色値のうちの、端末装置1Dから受信した識別情報が示す対象物に対応する基準色値を抽出する。 The server device 2D includes a storage unit 34, a server communication unit 35, and a control unit 40D. Like the storage unit 14 of the terminal device 1A, the storage unit 34 is a color value in the same color space as the average color value calculated by the average value calculation unit 24 of the terminal device 1D, and can be used as identification information of a plurality of objects. Stores multiple related reference color values. The specific details of the information stored in the storage unit 34 are the same as the information shown in FIG. The server communication unit 35 receives the identification information from the terminal device 1D, and transmits the reference color value corresponding to the object indicated by the identification information to the terminal device 1D. The control unit 40D extracts the reference color value corresponding to the object indicated by the identification information received from the terminal device 1D from the plurality of reference color values stored in the storage unit 34, including the CPU, RAM, ROM, and the like. To do.

通信システム3Dによると、端末装置1Dよりも記憶容量が大きいサーバ装置2Dにおいて、複数の壁装材の識別情報及び基準色値を記憶することで、データベースのサイズを大きくすることができる。更に、データベースを単一箇所、すなわちサーバ装置2Dに集約することで、データベースの更新などの操作を容易にする。 According to the communication system 3D, the size of the database can be increased by storing the identification information and the reference color value of a plurality of wall covering materials in the server device 2D having a storage capacity larger than that of the terminal device 1D. Further, by consolidating the database in a single place, that is, in the server device 2D, operations such as updating the database are facilitated.

図18は、通信システム3Eの構成を概略で示す図である。通信システム3Eは、端末装置1Bのように、印刷物の色が目標色に一致するように印刷データを補正するシステムである。通信システム3Eは、端末装置1E及びサーバ装置2Eを含み、これらの装置は、有線又は無線通信ネットワーク5を介して互いに通信可能に接続されている。更に、プリンタ4は、通信ケーブルなどを用いてサーバ装置2Eに接続されている。 FIG. 18 is a diagram schematically showing the configuration of the communication system 3E. The communication system 3E is a system like the terminal device 1B that corrects the print data so that the color of the printed matter matches the target color. The communication system 3E includes a terminal device 1E and a server device 2E, and these devices are communicably connected to each other via a wired or wireless communication network 5. Further, the printer 4 is connected to the server device 2E by using a communication cable or the like.

端末装置1Eのハードウェア構成は端末装置1Bと同一であり、端末装置1Eは、画像取得部21及び領域選択部22が、制御部20Eの機能ブロックとして含まれることのみ、端末装置1Bとは異なる。画像取得部21及び領域選択部22の機能は、端末装置1Bの機能と同じである。端末装置1Eの端末通信部15は、領域選択部22によって選択された画像領域を含む画像データを、サーバ装置2Eに送信する。 The hardware configuration of the terminal device 1E is the same as that of the terminal device 1B, and the terminal device 1E is different from the terminal device 1B only in that the image acquisition unit 21 and the area selection unit 22 are included as functional blocks of the control unit 20E. .. The functions of the image acquisition unit 21 and the area selection unit 22 are the same as those of the terminal device 1B. The terminal communication unit 15 of the terminal device 1E transmits the image data including the image area selected by the area selection unit 22 to the server device 2E.

サーバ装置2Eのハードウェア構成は、サーバ装置2Dのハードウェア構成と同じである。サーバ装置2Eのサーバ通信部35は、印刷物である第1の対象物を撮影して得られた第1の画像データを、端末装置1Eから受信する。サーバ装置2Eの記憶部34は、印刷物の色との比較の対象としての役割を担う、壁面などの第2の対象物を撮影して得られた第2の画像データを記憶する。サーバ装置2Eの制御部40Eは、機能ブロックとして、照明条件補正部43と、平均値計算部44と、色差計算部45と、印刷データ補正部46Eと、を備える。これらの機能ブロックの機能は、端末装置1Bの照明条件補正部23、平均値計算部24、色差計算部25、印刷データ補正部26Bのそれぞれと同じである。 The hardware configuration of the server device 2E is the same as the hardware configuration of the server device 2D. The server communication unit 35 of the server device 2E receives the first image data obtained by photographing the first object which is a printed matter from the terminal device 1E. The storage unit 34 of the server device 2E stores the second image data obtained by photographing the second object such as a wall surface, which plays a role as a target for comparison with the color of the printed matter. The control unit 40E of the server device 2E includes a lighting condition correction unit 43, an average value calculation unit 44, a color difference calculation unit 45, and a print data correction unit 46E as functional blocks. The functions of these functional blocks are the same as those of the lighting condition correction unit 23, the average value calculation unit 24, the color difference calculation unit 25, and the print data correction unit 26B of the terminal device 1B.

図19は、通信システム3Eの操作シーケンス例を示す図である。図19の各ステップの処理は、記憶部14及び34に記憶されているプログラムに基づいて、制御部20E及び40Eによって、端末装置1E及びサーバ装置2Eのそれぞれの要素と協働して実行される。 FIG. 19 is a diagram showing an example of an operation sequence of the communication system 3E. The processing of each step of FIG. 19 is executed by the control units 20E and 40E in cooperation with the respective elements of the terminal device 1E and the server device 2E based on the programs stored in the storage units 14 and 34. ..

最初に、端末装置1Eの画像取得部21は、印刷データYMCKに従って印刷された印刷物の画像である第1の画像データを取得する(S41)。次に上述の方法のうちのいずれか1つを用いて、領域選択部22は、S41で取得された画像内の色値の平均を計算することになる画像領域を選択する(S42)。次に、端末装置1Eの制御部20Eは、S42で選択された画像領域の第1の画像データを、端末通信部15を用いてサーバ装置2Eに送信する(S43)。 First, the image acquisition unit 21 of the terminal device 1E acquires the first image data which is an image of the printed matter printed according to the print data YMCK (S41). Next, using any one of the above methods, the area selection unit 22 selects an image area for which the average of the color values in the image acquired in S41 will be calculated (S42). Next, the control unit 20E of the terminal device 1E transmits the first image data of the image area selected in S42 to the server device 2E using the terminal communication unit 15 (S43).

サーバ装置2Eの照明条件補正部43は、受信した第1の画像データが撮影された照明条件を、その画像データに基づいて計算し、その計算された照明条件に従ってその画像データの色値を補正する(S44)。S42で選択された画像領域について、平均値計算部44は、S44で補正した第1の画像データの色値から第1の平均色値Rを計算し、記憶部34の第2の画像データの色値から第2の平均色値Rを計算する(S45)。 The lighting condition correction unit 43 of the server device 2E calculates the lighting condition in which the received first image data is captured based on the image data, and corrects the color value of the image data according to the calculated lighting condition. (S44). For the image area selected in S42, the average value calculation unit 44 calculates the first average color value R 1 G 1 B 1 from the color value of the first image data corrected in S 44, and the first average color value R 1 G 1 B 1 of the storage unit 34 is calculated. The second average color value R 2 G 2 B 2 is calculated from the color value of the image data of 2 (S45).

次に、色差計算部45は、S45で計算された、第1の平均色値Rと第2の平均色値Rとの間の色差を計算する(S46)。S46で計算された色差ΔEが、所定の閾値Tよりも大きい場合、印刷データ補正部46Eは、色差を小さくするよう上述の式に従って、印刷物の印刷データYMCKを補正する(S47)。次に、サーバ装置2Eの制御部40Eは、S47で修正された印刷データを、サーバ通信部35を用いてプリンタ4に出力する(S48)。そして図19の処理は終了する。図19のステップは、色差ΔEがS47で閾値Tを下回るまで、必要に応じて複数回繰り返される。 Next, the color difference calculation unit 45 calculates the color difference between the first average color value R 1 G 1 B 1 and the second average color value R 2 G 2 B 2 calculated in S45 (S46). ). When the color difference ΔE calculated in S46 is larger than the predetermined threshold value T, the print data correction unit 46E corrects the print data YMCK of the printed matter according to the above formula so as to reduce the color difference (S47). Next, the control unit 40E of the server device 2E outputs the print data corrected in S47 to the printer 4 using the server communication unit 35 (S48). Then, the process of FIG. 19 ends. The step of FIG. 19 is repeated a plurality of times as necessary until the color difference ΔE falls below the threshold value T at S47.

通信システム3Eによると、サーバ装置2Eの印刷データ補正部46Eによって、プリンタ4の印刷データが補正される。端末装置1Eよりも速い処理速度、及び大きい記憶容量を有するサーバ装置2Eを用いて、印刷データの補正処理を実行することによって、処理をより迅速に、より正確に行うことができる。 According to the communication system 3E, the print data of the printer 4 is corrected by the print data correction unit 46E of the server device 2E. By executing the correction processing of the print data by using the server device 2E having a processing speed faster than that of the terminal device 1E and a large storage capacity, the processing can be performed more quickly and more accurately.

図20は、通信システム3Fの構成を概略で示す図である。通信システム3Fは、端末装置1Cのように、撮影された壁装材と同一の壁装材を見つけ、その壁装材をユーザに提示するためのシステムである。通信システム3Fは、端末装置1F及びサーバ装置2Fを含み、これらの装置は、有線又は無線通信ネットワーク5を介して互いに通信可能に接続されている。 FIG. 20 is a diagram schematically showing the configuration of the communication system 3F. The communication system 3F is a system for finding the same wall covering material as the photographed wall covering material and presenting the wall covering material to the user, like the terminal device 1C. The communication system 3F includes a terminal device 1F and a server device 2F, and these devices are communicably connected to each other via a wired or wireless communication network 5.

端末装置1Fのハードウェア構成は端末装置1Cのハードウェア構成と同一であり、端末装置1Fは、画像取得部21と、領域選択部22と、照明条件補正部23と、平均値計算部24と、周波数変換部26Fとが、制御部20Fの機能ブロックとして含まれることのみ、端末装置1Cとは異なる。これらの機能ブロックの機能は、端末装置1Cの、画像取得部21、領域選択部22、照明条件補正部23、平均値計算部24、及び周波数変換部26Cのそれぞれの機能と同じである。端末装置1Fの端末通信部15は、平均値計算部24によって計算された平均色値と、周波数変換部26Cによって計算された周波数分布の画像データとをサーバ装置2Fに送信し、サーバ装置2Fによって参照した対象物の識別情報(壁装材の製品番号)などを、サーバ装置2Fから受信する。端末装置1Fの制御部20Fは、サーバ装置2Fから受信した対象物の識別情報などを表示部13に表示させる。 The hardware configuration of the terminal device 1F is the same as the hardware configuration of the terminal device 1C, and the terminal device 1F includes an image acquisition unit 21, an area selection unit 22, a lighting condition correction unit 23, and an average value calculation unit 24. , The frequency conversion unit 26F is different from the terminal device 1C only in that it is included as a functional block of the control unit 20F. The functions of these functional blocks are the same as the functions of the image acquisition unit 21, the area selection unit 22, the lighting condition correction unit 23, the average value calculation unit 24, and the frequency conversion unit 26C of the terminal device 1C. The terminal communication unit 15 of the terminal device 1F transmits the average color value calculated by the average value calculation unit 24 and the image data of the frequency distribution calculated by the frequency conversion unit 26C to the server device 2F, and is transmitted by the server device 2F. The identification information (product number of the wall covering material) of the referenced object is received from the server device 2F. The control unit 20F of the terminal device 1F causes the display unit 13 to display the identification information of the object received from the server device 2F.

サーバ装置2Fのハードウェア構成は、サーバ装置2Dのハードウェア構成と同じである。端末装置1Cの記憶部14のように、サーバ装置2Fの記憶部34は、端末装置1Fの平均値計算部24によって計算された平均色値と同じ色空間における色値である、複数の対象物の識別情報に関連した複数の基準色値を記憶する。記憶部34に記憶された情報の具体的な詳細は、図14に示す情報と同じである。サーバ通信部35は、端末装置1Fから平均色値及び周波数分布画像データを受信し、制御部40Fによって参照された識別情報を端末装置1Fに送信する。 The hardware configuration of the server device 2F is the same as the hardware configuration of the server device 2D. Like the storage unit 14 of the terminal device 1C, the storage unit 34 of the server device 2F is a plurality of objects having color values in the same color space as the average color value calculated by the average value calculation unit 24 of the terminal device 1F. Stores a plurality of reference color values related to the identification information of. The specific details of the information stored in the storage unit 34 are the same as the information shown in FIG. The server communication unit 35 receives the average color value and the frequency distribution image data from the terminal device 1F, and transmits the identification information referred to by the control unit 40F to the terminal device 1F.

サーバ装置2Fの制御部40Fは、機能ブロックとして、色差計算部45と、比較処理部47Fと、参照部48Fと、を含む。これらの機能ブロックの機能は、端末装置1Cの色差計算部25、比較処理部27C、及び参照部28Cのそれぞれの機能と同じである。特に、色差計算部45は、記憶部34に記憶された複数の基準色値の各々と、端末装置1Fから受信した平均色値との間の色差を計算する。 The control unit 40F of the server device 2F includes a color difference calculation unit 45, a comparison processing unit 47F, and a reference unit 48F as functional blocks. The functions of these functional blocks are the same as the functions of the color difference calculation unit 25, the comparison processing unit 27C, and the reference unit 28C of the terminal device 1C. In particular, the color difference calculation unit 45 calculates the color difference between each of the plurality of reference color values stored in the storage unit 34 and the average color value received from the terminal device 1F.

図21は、通信システム3Fの操作シーケンス例を示す図である。図21の各ステップの処理は、記憶部14及び34に記憶されているプログラムに基づいて、制御部20F及び40Fによって、端末装置1F及びサーバ装置2Fのそれぞれの要素と協働して実行される。 FIG. 21 is a diagram showing an example of an operation sequence of the communication system 3F. The processing of each step in FIG. 21 is executed by the control units 20F and 40F in cooperation with the respective elements of the terminal device 1F and the server device 2F based on the programs stored in the storage units 14 and 34. ..

S51〜S54における、対象物の画像データの取得、画像領域の選択、平均色値の計算、及び周波数分布への変換は、それぞれ図16のS31、S32、S34、及びS36と同じである。図21に図示しないが、S53に先立って、端末装置1Fの照明条件補正部23が、図16のS33と同じ方法で照明条件に従って画像データの色値を補正することが可能である。S54の後に、端末装置1Fの制御部20Fは、S53で計算された平均色値、及びS54での変換から得た周波数分布画像データを、端末通信部15を用いてサーバ装置2Fに送信する(S55)。 In S51 to S54, acquisition of image data of an object, selection of an image area, calculation of an average color value, and conversion to a frequency distribution are the same as in S31, S32, S34, and S36 of FIG. 16, respectively. Although not shown in FIG. 21, prior to S53, the illumination condition correction unit 23 of the terminal device 1F can correct the color value of the image data according to the illumination condition in the same manner as in S33 of FIG. After S54, the control unit 20F of the terminal device 1F transmits the average color value calculated in S53 and the frequency distribution image data obtained from the conversion in S54 to the server device 2F using the terminal communication unit 15 (the terminal communication unit 15 is used). S55).

サーバ装置2Fの色差計算部45は、記憶部34に記憶された複数の各基準色値と、端末装置1Fから受信した平均色値との間の色差を計算する(S56)。次に、比較処理部47Fは、記憶部34に記憶されている各壁装材の周波数分布を、端末装置1Fから受信した周波数分布と比較する(すなわちパターンマッチングを実行する)(S57)。参照部48Fは、S56の計算結果における最も小さい色差から、及びS57における比較結果の最も小さい差から順に、記憶部34に記憶されている各壁装材の対象物の識別情報(壁装材の製品番号)を参照する(S58)。次に、サーバ装置2Fの制御部40Fは、S58で参照した識別情報などを、サーバ通信部35を用いて端末装置1Fに送信する(S59)。このとき、端末装置1Fの制御部20Fは、受信した識別情報などを表示部13に表示させる(S60)。そして図21の処理は終了する。 The color difference calculation unit 45 of the server device 2F calculates the color difference between each of the plurality of reference color values stored in the storage unit 34 and the average color value received from the terminal device 1F (S56). Next, the comparison processing unit 47F compares the frequency distribution of each wall covering material stored in the storage unit 34 with the frequency distribution received from the terminal device 1F (that is, performs pattern matching) (S57). The reference unit 48F stores the identification information (of the wall covering material) of the object of each wall covering material stored in the storage unit 34 in order from the smallest color difference in the calculation result of S56 and the smallest difference in the comparison result in S57. (Product number) is referred to (S58). Next, the control unit 40F of the server device 2F transmits the identification information and the like referred to in S58 to the terminal device 1F using the server communication unit 35 (S59). At this time, the control unit 20F of the terminal device 1F causes the display unit 13 to display the received identification information and the like (S60). Then, the process of FIG. 21 is completed.

この通信システム3Fによると、端末装置1Fよりも記憶容量が大きいサーバ装置2Fにおいて、複数の壁装材の識別情報及び基準色値を記憶することで、データベースのサイズを大きくすることができる。更に、端末装置1Fよりも速い処理速度を有するサーバ装置2Fを用いて、探索処理を実行することによって、処理をより迅速に、より正確に行うことができる。 According to this communication system 3F, the size of the database can be increased by storing the identification information and the reference color value of a plurality of wall covering materials in the server device 2F having a storage capacity larger than that of the terminal device 1F. Further, by executing the search process using the server device 2F having a processing speed faster than that of the terminal device 1F, the process can be performed more quickly and more accurately.

図22は、通信システム3Gの構成を概略で示す図である。通信システム3Gは、端末装置1Cのように、撮影された壁装材と同一の壁装材を見つけ、その壁装材をユーザに提示するシステムである。通信システム3Gは、端末装置1G及びサーバ装置2Gを含み、これらの装置は、有線又は無線通信ネットワーク5を介して互いに通信可能に接続されている。 FIG. 22 is a diagram schematically showing the configuration of the communication system 3G. The communication system 3G is a system like the terminal device 1C, which finds the same wall covering material as the photographed wall covering material and presents the wall covering material to the user. The communication system 3G includes a terminal device 1G and a server device 2G, and these devices are communicably connected to each other via a wired or wireless communication network 5.

端末装置1Gのハードウェア構成は端末装置1Cのハードウェア構成と同一であり、端末装置1Gは、画像取得部21及び領域選択部22が制御部20Gの機能ブロックとして含まれることのみ、端末装置1Cとは異なる。画像取得部21と領域選択部22の機能は、端末装置1Cの機能と同じである。端末装置1Gの端末通信部15は、画像取得部21が取得した画像データをサーバ装置2Gに送信し、サーバ装置2Gによって参照される対象物の識別情報(壁装材の製品番号)などをサーバ装置2Gから受信する。端末装置1Fの制御部20Gは、サーバ装置2Gから受信した対象物の識別情報などを表示部13に表示させる。 The hardware configuration of the terminal device 1G is the same as the hardware configuration of the terminal device 1C, and the terminal device 1G only includes the image acquisition unit 21 and the area selection unit 22 as functional blocks of the control unit 20G. Is different. The functions of the image acquisition unit 21 and the area selection unit 22 are the same as those of the terminal device 1C. The terminal communication unit 15 of the terminal device 1G transmits the image data acquired by the image acquisition unit 21 to the server device 2G, and sends the identification information (product number of the wall covering material) of the object referred to by the server device 2G to the server. Received from device 2G. The control unit 20G of the terminal device 1F causes the display unit 13 to display the identification information of the object received from the server device 2G.

サーバ装置2Gのハードウェア構成は、サーバ装置2Dのハードウェア構成と同じである。端末装置1Cの記憶部14のように、サーバ装置2Gの記憶部34は、サーバ装置2Gの制御部40Gによって計算された平均色値と同じ色空間における色値であり、複数の対象物の識別情報に関連した複数の基準色値を記憶する。記憶部34に記憶された情報の具体的な詳細は、図14に示す情報と同じである。サーバ通信部35は、端末装置1Gから対象物の画像データを受信し、制御部40Gによって参照された識別情報を端末装置1Gに送信する。 The hardware configuration of the server device 2G is the same as the hardware configuration of the server device 2D. Like the storage unit 14 of the terminal device 1C, the storage unit 34 of the server device 2G is a color value in the same color space as the average color value calculated by the control unit 40G of the server device 2G, and identifies a plurality of objects. Stores multiple reference color values related to the information. The specific details of the information stored in the storage unit 34 are the same as the information shown in FIG. The server communication unit 35 receives the image data of the object from the terminal device 1G, and transmits the identification information referenced by the control unit 40G to the terminal device 1G.

サーバ装置2Gの制御部40Gは、機能ブロックとして、照明条件補正部43と、平均値計算部44と、色差計算部45と、周波数変換部46Gと、比較処理部47Gと、参照部48Gと、を備える。これらの機能ブロックの機能は、端末装置1Cの照明条件補正部23、平均値計算部24、色差計算部25、周波数変換部26C、比較処理部27C、及び参照部28Cのそれぞれの機能と同じである。特に、平均値計算部44は、端末装置1Gから受信して照明条件補正部43によって照明条件が補正された画像データの色値から、領域選択部22によって選択された画像領域における色値の平均である平均色値を計算する。 The control unit 40G of the server device 2G has, as functional blocks, a lighting condition correction unit 43, an average value calculation unit 44, a color difference calculation unit 45, a frequency conversion unit 46G, a comparison processing unit 47G, and a reference unit 48G. To be equipped. The functions of these functional blocks are the same as the functions of the lighting condition correction unit 23, the average value calculation unit 24, the color difference calculation unit 25, the frequency conversion unit 26C, the comparison processing unit 27C, and the reference unit 28C of the terminal device 1C. is there. In particular, the average value calculation unit 44 averages the color values in the image area selected by the area selection unit 22 from the color values of the image data received from the terminal device 1G and whose lighting conditions are corrected by the lighting condition correction unit 43. Calculate the average color value that is.

図23は、通信システム3Gの操作シーケンス例を示す図である。図23の各ステップの処理は、記憶部14及び34に記憶されているプログラムに基づいて、制御部20G及び40Gによって、端末装置1G及びサーバ装置2Gのそれぞれの要素と協働して実行される。 FIG. 23 is a diagram showing an example of an operation sequence of the communication system 3G. The processing of each step in FIG. 23 is executed by the control units 20G and 40G in cooperation with the respective elements of the terminal device 1G and the server device 2G based on the programs stored in the storage units 14 and 34. ..

S61及びS62における、対象物の画像データの取得、及び画像領域選択は、図16におけるS31及びS32のものと同じである。S62の後で、端末装置1Fの制御部20Fは、S62で選択された画像領域を含む画像データを、端末通信部15を用いてサーバ装置2Gに送信する(S63)。 The acquisition of image data of the object and the selection of the image area in S61 and S62 are the same as those in S31 and S32 in FIG. After S62, the control unit 20F of the terminal device 1F transmits the image data including the image area selected in S62 to the server device 2G using the terminal communication unit 15 (S63).

サーバ装置2Gの平均値計算部44は、端末装置1Gから受信した画像データの色値から、領域選択部22によって選択された画像領域における色値の平均である平均色値を計算する(S64)。図23に図示しないが、S64に先立って、照明条件補正部43が画像データの色値を、図16のS33と同じ方法で照明条件に従って補正することが可能である。次に、色差計算部45は、記憶部34に記憶された各基準色値と、S64で計算された平均色値との間の色差を計算する(S65)。周波数変換部46Gは、S62で選択された画像領域における色値の空間分布を、周波数分布に変換する(S66)。次に、比較処理部47Cは、記憶部34に記憶されている各壁装材の周波数分布を、S66で変換して得られた周波数分布と比較する(すなわちパターンマッチングを実行する)(S67)。参照部48Fは、S65の計算結果における最も小さい色差から、及びS67における比較結果の最も小さい差から順に、記憶部34に記憶されている各壁装材の対象物の識別情報(壁装材の製品番号)を参照する(S68)。 The average value calculation unit 44 of the server device 2G calculates the average color value, which is the average of the color values in the image area selected by the area selection unit 22, from the color value of the image data received from the terminal device 1G (S64). .. Although not shown in FIG. 23, prior to S64, the illumination condition correction unit 43 can correct the color value of the image data according to the illumination condition in the same manner as in S33 of FIG. Next, the color difference calculation unit 45 calculates the color difference between each reference color value stored in the storage unit 34 and the average color value calculated in S64 (S65). The frequency conversion unit 46G converts the spatial distribution of color values in the image region selected in S62 into a frequency distribution (S66). Next, the comparison processing unit 47C compares the frequency distribution of each wall covering material stored in the storage unit 34 with the frequency distribution obtained by converting in S66 (that is, performs pattern matching) (S67). .. The reference unit 48F stores the identification information (of the wall covering material) of the object of each wall covering material stored in the storage unit 34 in order from the smallest color difference in the calculation result of S65 and the smallest difference in the comparison result in S67. (Product number) is referred to (S68).

次に、サーバ装置2Gの制御部40Gは、S68で参照された識別情報などを、サーバ通信部35を用いて端末装置1Gに送信する(S69)。このとき、端末装置1Gの制御部20Gは、受信した識別情報などを表示部13に表示させる(S70)。そして図23の処理は終了する。 Next, the control unit 40G of the server device 2G transmits the identification information and the like referred to in S68 to the terminal device 1G using the server communication unit 35 (S69). At this time, the control unit 20G of the terminal device 1G causes the display unit 13 to display the received identification information and the like (S70). Then, the process of FIG. 23 is completed.

この通信システム3Gによると、端末装置1Gよりも記憶容量が大きいサーバ装置2Gにおいて、複数の壁装材の識別情報及び基準色値を記憶することで、データベースのサイズを大きくすることができる。更に、端末装置1Gよりも速い処理速度を有するサーバ装置2Gを用いて、周波数分布への変換の処理、及び探索処理を実行することによって、通信システム3Fよりも、処理を更に迅速に、より正確に行うことができる。 According to this communication system 3G, in the server device 2G having a storage capacity larger than that of the terminal device 1G, the size of the database can be increased by storing the identification information and the reference color value of a plurality of wall covering materials. Furthermore, by using the server device 2G, which has a processing speed faster than that of the terminal device 1G, to execute the conversion process to the frequency distribution and the search process, the process can be performed more quickly and more accurately than the communication system 3F. Can be done.

端末装置1〜1Gの制御部20〜20G、及びサーバ装置2D〜2Gの制御部40D〜40Gの機能の各々を、コンピュータ上で実現するためのコンピュータプログラムは、コンピュータが読み取ることができる磁気記録媒体又は光学記録媒体などの記録媒体に提供され、記録することができる。 A computer program for realizing each of the functions of the control units 20 to 20G of the terminal devices 1 to 1G and the control units 40D to 40G of the server devices 2D to 2G on a computer is a magnetic recording medium that can be read by a computer. Alternatively, it can be provided and recorded on a recording medium such as an optical recording medium.

上述の実施形態は、本発明の本質的な趣旨を逸脱することなく、様々な方法で改変され得る。例えば図2は、2枚の画像50Aと50Bとの間の色差を求めた場合の例を示しているが、1枚の画像に撮影された2つの対象物間の色差を求めるか、又は撮像部11で撮影した画像と記憶部14に予め記憶された画像との間の色差を事前に求めてもよい。一方、測定の対象である画像は、撮像部11で撮影された画像に限定されず、端末装置1〜1Gとは異なる端末によって撮影された画像であってもよい。 The above embodiments can be modified in various ways without departing from the essential spirit of the present invention. For example, FIG. 2 shows an example in which the color difference between two images 50A and 50B is obtained, but the color difference between two objects captured in one image is obtained or captured. The color difference between the image taken by the unit 11 and the image stored in advance in the storage unit 14 may be obtained in advance. On the other hand, the image to be measured is not limited to the image taken by the imaging unit 11, and may be an image taken by a terminal different from the terminal devices 1 to 1G.

更に、領域選択部22によって画像情報から取得された情報は、焦点距離に制限されず、例えば、有効絞り値(F絞り)、シャッタースピード、ISO感度、これらの値から計算される基準輝度値などを含んでもよい。 Further, the information acquired from the image information by the area selection unit 22 is not limited to the focal length, and is, for example, an effective aperture value (F aperture), a shutter speed, an ISO sensitivity, a reference luminance value calculated from these values, and the like. May include.

更に、図19におけるS43、図21におけるS55、及び図23におけるS63で送られた情報は、画像データに加えて画像の撮影条件に関する画像情報を含んでもよい。画像データの例が、互いに異なる撮影条件(例えば、異なる端末装置、同じ端末装置だが異なるシーン)で取得された場合であっても、撮影条件の違いを補正したサーバ装置において色差計算又は周波数分布比較を行うことができる。例えば、撮影時の光源の色温度が画像同士間で異なる場合、比較処理部47F及び47Gは、送られた画像情報に基づいて画像データの例のうちの1つを処理した、サーバ装置の制御部に対して、それぞれの色温度が一致するように比較処理を実行してもよい。同様に、撮影時のISO感度が画像同士間で異なる場合、比較処理部47F及び47Gは、送られた画像情報に基づいて画像データの例のうちの1つを処理した、サーバ装置の制御部に対して、それぞれのISO感度が一致するように比較処理を実行してもよい。 Further, the information sent in S43 in FIG. 19, S55 in FIG. 21, and S63 in FIG. 23 may include image information regarding image capturing conditions in addition to the image data. Even if the image data examples are acquired under different shooting conditions (for example, different terminal devices, the same terminal device but different scenes), color difference calculation or frequency distribution comparison is performed in the server device that corrects the difference in shooting conditions. It can be performed. For example, when the color temperature of the light source at the time of shooting is different between the images, the comparison processing units 47F and 47G process one of the examples of the image data based on the sent image information, and control the server device. The comparison process may be performed on the parts so that the color temperatures of the parts match. Similarly, when the ISO sensitivity at the time of shooting differs between images, the comparison processing units 47F and 47G process one of the image data examples based on the transmitted image information, and the control unit of the server device. On the other hand, the comparison process may be executed so that the ISO sensitivities match.

Claims (8)

対象物の画像データを取得する画像取得部と、
前記画像データの所定の画像領域を選択する領域選択部と、
前記選択された画像領域内の各画素における色値を取得し、前記取得した前記色値の平均である平均色値を計算する平均値計算部と、
前記平均色値と、前記平均色値と同じ色空間における比較対象の色値との間の色差を計算する色差計算部と、
前記色差に関する情報を出力する出力部と
を含み、
前記領域選択部は、前記画像内の前記画像領域の位置によって、前記平均色値が所定の許容範囲より大きく変化しない面積及び形状を有する領域を、前記所定の画像領域として選択する、装置
An image acquisition unit that acquires the images data of the object,
A region selection unit for selecting the constant of an image area where in the image data,
An average value calculation unit that acquires color values in each pixel in the selected image region and calculates an average color value that is the average of the acquired color values.
A color difference calculation unit that calculates the color difference between the average color value and the color value to be compared in the same color space as the average color value.
An output unit for outputting information relating to said color difference,
Only including,
The area selection unit is an apparatus that selects a region having an area and a shape in which the average color value does not change significantly from a predetermined allowable range depending on the position of the image region in the image as the predetermined image region .
対象物の画像データを取得する画像取得部と、
前記画像データ内の所定の画像領域を選択する領域選択部と、
前記選択された画像領域内の各画素における色値を取得し、前記取得した前記色値の平均である平均色値を計算する平均値計算部と、
前記平均色値と、前記平均色値と同じ色空間における比較対象の色値との間の色差を計算する色差計算部と、
前記色差に関する情報を出力する出力部と、
を含み、
前記領域選択部は、特定の面積及び形状を有する領域が前記画像内で移動したときに前記領域内の前記平均色値が所定の許容範囲より大きく変化しない位置における、前記特定の面積及び形状を有する前記領域を前記所定の画像領域として選択する、装置。
An image acquisition unit that acquires image data of an object,
An area selection unit that selects a predetermined image area in the image data, and
An average value calculation unit that acquires color values in each pixel in the selected image region and calculates an average color value that is the average of the acquired color values.
A color difference calculation unit that calculates the color difference between the average color value and the color value to be compared in the same color space as the average color value.
An output unit that outputs information about the color difference and
Including
The area selection unit determines the specific area and shape at a position where the average color value in the area does not change significantly from a predetermined allowable range when the area having the specific area and shape moves in the image. said region having selected as the predetermined image area, equipment.
対象物の画像データを取得する画像取得部と、
前記画像データ内の所定の画像領域を選択する領域選択部と、
前記選択された画像領域内の各画素における色値を取得し、前記取得した前記色値の平均である平均色値を計算する平均値計算部と、
前記平均色値と、前記平均色値と同じ色空間における比較対象の色値との間の色差を計算する色差計算部と、
前記色差に関する情報を出力する出力部と、
を含み、
前記領域選択部は、前記画像を撮影する撮像部と前記対象物との間の距離を、前記画像データに付加された撮像情報から取得し、前記距離が短いほど大きい面積を有する画像領域を選択する、装置。
An image acquisition unit that acquires image data of an object,
An area selection unit that selects a predetermined image area in the image data, and
An average value calculation unit that acquires color values in each pixel in the selected image region and calculates an average color value that is the average of the acquired color values.
A color difference calculation unit that calculates the color difference between the average color value and the color value to be compared in the same color space as the average color value.
An output unit that outputs information about the color difference and
Including
The area selection unit acquires the distance between the image pickup unit that captures the image and the object from the imaging information added to the image data, and selects an image region having a larger area as the distance is shorter. to, equipment.
対象物の画像データを取得する画像取得部と、
前記画像データ内の所定の画像領域を選択する領域選択部と、
前記選択された画像領域内の各画素における色値を取得し、前記取得した前記色値の平均である平均色値を計算する平均値計算部と、
前記平均色値と、前記平均色値と同じ色空間における比較対象の色値との間の色差を計算する色差計算部と、
前記色差に関する情報を出力する出力部と、
を含み、
前記領域選択部は、前記画像内の輝度値が輝度値限界を超える画素領域を除いて前記所定の画像領域を選択する、装置。
An image acquisition unit that acquires image data of an object,
An area selection unit that selects a predetermined image area in the image data, and
An average value calculation unit that acquires color values in each pixel in the selected image region and calculates an average color value that is the average of the acquired color values.
A color difference calculation unit that calculates the color difference between the average color value and the color value to be compared in the same color space as the average color value.
An output unit that outputs information about the color difference and
Including
The region selection unit, the luminance value in the image to select the predetermined image area except the pixel region exceeding the luminance value limit, equipment.
画像を撮影する撮像部を更に含む、請求項1〜4のいずれか一項に記載の装置。 The apparatus according to any one of claims 1 to 4, further comprising an imaging unit that captures an image. 前記平均色値と同じ色空間における色値である複数の基準色値、及び互いに関連する複数の対象物の識別情報を記憶する記憶部と、
前記画像内の前記対象物の前記識別情報を取得する識別情報取得部と、
前記色差が所定の色差範囲内にあるか否かを判定する判定部と、を更に含み、
前記色差計算部は、前記複数の基準色値のうちで前記識別情報に対応する基準色値と前記平均色値との間の色差を計算し、
前記出力部は、前記判定部による前記判定の結果を出力する、請求項1〜4のいずれか一項に記載の装置。
A storage unit that stores a plurality of reference color values that are color values in the same color space as the average color value, and identification information of a plurality of objects related to each other.
An identification information acquisition unit that acquires the identification information of the object in the image, and
Further including a determination unit for determining whether or not the color difference is within a predetermined color difference range,
The color difference calculation unit calculates the color difference between the reference color value corresponding to the identification information and the average color value among the plurality of reference color values.
The device according to any one of claims 1 to 4, wherein the output unit outputs the result of the determination by the determination unit.
前記画像取得部が、第1の対象物を撮影することによって得られた第1の画像データ及び第2の対象物を撮影することによって得られた第2の画像データを、前記画像データとして取得し、
前記平均値計算部が、前記第1の画像データの第1の平均色値を前記平均色値として計算し、前記第2の画像データの第2の平均色値を前記比較対象の前記色値として計算し、
前記色差計算部が、前記第1の平均色値と前記第2の平均色値との間の色差を計算し、
前記出力部が、前記色差が所定の色差範囲内にあるか否かを示す情報を出力する、請求項1〜4のいずれか一項に記載の装置。
The image acquisition unit acquires the first image data obtained by photographing the first object and the second image data obtained by photographing the second object as the image data. And
The average value calculation unit calculates the first average color value of the first image data as the average color value, and the second average color value of the second image data is the color value to be compared. Calculated as
The color difference calculation unit calculates the color difference between the first average color value and the second average color value.
The apparatus according to any one of claims 1 to 4, wherein the output unit outputs information indicating whether or not the color difference is within a predetermined color difference range.
前記第1の対象物が印刷物であり、
前記色差が前記色差範囲内にない場合に前記色差が小さくなるように前記印刷物の印刷データの色値を補正する、印刷データ補正部を更に含む、請求項に記載の装置
The first object is a printed matter,
The apparatus according to claim 7 , further comprising a print data correction unit that corrects the color value of the print data of the printed matter so that the color difference becomes smaller when the color difference is not within the color difference range .
JP2018546639A 2016-03-04 2017-02-23 Equipment, systems, and recording media for measuring color differences Active JP6891189B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662303428P 2016-03-04 2016-03-04
US62/303,428 2016-03-04
PCT/US2017/018997 WO2017151366A2 (en) 2016-03-04 2017-02-23 Device for measuring color difference, system, and recording medium

Publications (3)

Publication Number Publication Date
JP2019516068A JP2019516068A (en) 2019-06-13
JP2019516068A5 JP2019516068A5 (en) 2020-03-26
JP6891189B2 true JP6891189B2 (en) 2021-06-18

Family

ID=58228588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018546639A Active JP6891189B2 (en) 2016-03-04 2017-02-23 Equipment, systems, and recording media for measuring color differences

Country Status (2)

Country Link
JP (1) JP6891189B2 (en)
WO (1) WO2017151366A2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7106318B2 (en) * 2018-03-26 2022-07-26 キヤノン株式会社 Image processing device, image processing method and program
CN110473263A (en) * 2018-05-09 2019-11-19 北京京东尚科信息技术有限公司 The checking method of picture, device and system

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3705095B2 (en) * 2000-08-28 2005-10-12 松下電工株式会社 Method and apparatus for evaluating color tone of design pattern colored on object surface
JP2002232907A (en) * 2001-02-07 2002-08-16 Minolta Co Ltd Digital image pickup device, program and recording medium
JP4139584B2 (en) * 2001-10-02 2008-08-27 大日本印刷株式会社 Print color monitoring system
JP3575460B2 (en) * 2001-12-04 2004-10-13 凸版印刷株式会社 Print inspection equipment
JP2003241732A (en) * 2002-02-21 2003-08-29 Minolta Co Ltd Color image display system
JP5119921B2 (en) * 2005-07-19 2013-01-16 コニカミノルタホールディングス株式会社 Image processing apparatus, image processing system, and image processing program
DE102009023952A1 (en) * 2009-06-04 2010-12-09 DüRR DENTAL AG Method for determining tooth color of e.g. dental prosthesis, involves providing difference between color values of images and tooth color pattern as measurement for correlating colors of tooth region and tooth color pattern
GB201000835D0 (en) * 2010-01-19 2010-03-03 Akzo Nobel Coatings Int Bv Method and system for determining colour from an image
EP2693179A4 (en) 2011-03-31 2014-12-17 Konica Minolta Inc Optical characteristics measuring apparatus and method
JP2013072777A (en) * 2011-09-28 2013-04-22 Toppan Printing Co Ltd Different kind intrusion inspection method and different kind intrusion inspection device
CN102759403B (en) * 2012-06-05 2014-11-12 北京林业大学 Method for quantifying color of sample

Also Published As

Publication number Publication date
JP2019516068A (en) 2019-06-13
WO2017151366A3 (en) 2017-10-12
WO2017151366A2 (en) 2017-09-08

Similar Documents

Publication Publication Date Title
JP6974397B2 (en) measuring device
JP4519708B2 (en) Imaging apparatus and method, and program
JP3829238B2 (en) Color reproduction system
JP5457652B2 (en) Image processing apparatus and method
CN111837155A (en) Image processing method and apparatus
US20140043434A1 (en) Image processing apparatus
JP2016194456A (en) Color fidelity environment correction device and color fidelity environment correction method
JP6891189B2 (en) Equipment, systems, and recording media for measuring color differences
CN109104545A (en) Image processing equipment, image processing method and image processing system
US8164650B2 (en) Image processing apparatus and method thereof
US20100053360A1 (en) Image processing method and image processing apparatus
US20190174057A1 (en) Image acquisition device, image processing device, image processing method, image processing program, and image acquisition system
EP3993382A1 (en) Colour calibration of an imaging device
Zhao et al. Perceptual spatial uniformity assessment of projection displays with a calibrated camera
JP2000341499A (en) Color reproducing apparatus
US20170038196A1 (en) System and method for acquiring color image from monochrome scan camera
JP7309415B2 (en) Image processing device, image processing method and program
US9041815B2 (en) Digital camera imaging evaluation module
CN110225223B (en) Image processing apparatus and control method thereof
JP2011205275A (en) Image processor, image processing program, imager, and image display device
CN109391804A (en) Photographic device, image processing apparatus and system, control method and storage medium
JP2019033470A (en) Image processing system, imaging apparatus, image processing apparatus, control method, and program
JP4677924B2 (en) Imaging system, moving image processing method, and moving image processing apparatus
JP6317703B2 (en) Image processing apparatus, image processing system, image processing method, and image processing program
JP2016170637A (en) Image processing device and image processing method

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191202

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210526

R150 Certificate of patent or registration of utility model

Ref document number: 6891189

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250