JP2008072551A - Image processing method, image processing apparatus, program and recording medium - Google Patents

Image processing method, image processing apparatus, program and recording medium Download PDF

Info

Publication number
JP2008072551A
JP2008072551A JP2006250368A JP2006250368A JP2008072551A JP 2008072551 A JP2008072551 A JP 2008072551A JP 2006250368 A JP2006250368 A JP 2006250368A JP 2006250368 A JP2006250368 A JP 2006250368A JP 2008072551 A JP2008072551 A JP 2008072551A
Authority
JP
Japan
Prior art keywords
color
color signal
image processing
range
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006250368A
Other languages
Japanese (ja)
Other versions
JP4730837B2 (en
Inventor
Toshio Shirasawa
寿夫 白沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2006250368A priority Critical patent/JP4730837B2/en
Publication of JP2008072551A publication Critical patent/JP2008072551A/en
Application granted granted Critical
Publication of JP4730837B2 publication Critical patent/JP4730837B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Image Communication Systems (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To achieve dynamic range compression while reducing operation load and utilizing color reproduction capability of an output device in converting scene reference image data into image data for the output device. <P>SOLUTION: An image analyzing section 103 analyzes color distribution of scRGB image data to set range compression conditions for tone mapping processing. A range compressing section 101 compresses a dynamic range on the basis of the range compression conditions set in the image analyzing section 103, and converts the scRGB image data into data within a range expressible in an expanded RGB color space. A color correction section 102 converts the color signals compressed into the dynamic range of the expanded RGB color space into CMYK signals as printer output signals. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、ダイナミックレンジの広い画像データに対して好ましい出力画像データを生成する画像処理技術に関し、特に、画像データをモニタやプリンタ等の出力デバイスに出力するための画像変換を行う画像処理方法、画像処理装置、プログラムおよび記録媒体に関する。   The present invention relates to an image processing technique for generating preferable output image data for image data with a wide dynamic range, and in particular, an image processing method for performing image conversion for outputting image data to an output device such as a monitor or a printer, The present invention relates to an image processing apparatus, a program, and a recording medium.

近年、パソコンやインターネット、家庭用プリンタの普及、及びハードディスクなどの記憶容量の大型化により、デジタルデータで写真画像を扱う機会が増え、それに伴いデジタル写真画像データ(以下、画像データ)の入力手段として、デジタルカメラが普及している。   In recent years, with the widespread use of personal computers, the Internet, and home printers, and the increase in storage capacity of hard disks and the like, opportunities to handle photographic images with digital data have increased, and as a means of inputting digital photographic image data (hereinafter referred to as image data). Digital cameras are popular.

デジタルカメラで使用している撮像センサCCD(Charge Coupled Device)は、撮影シーンの輝度にほぼ比例した画像データを出力する。CCDからの撮像データをそのままモニタに出力すると、輝度のべき乗に比例した輝度を有する画像を表示することになり好ましい特性とはならない。このため、出力デバイスの特性に合わせた、画像変換を行う必要がある。一般には、sRGBと呼ぶ平均的なモニタの特性に基づいて標準化した色空間(非特許文献1を参照)が普及し、デジタルカメラも、sRGB画像データに変換して出力されることが多い。   An image sensor CCD (Charge Coupled Device) used in the digital camera outputs image data that is substantially proportional to the luminance of the shooting scene. If the imaging data from the CCD is output to the monitor as it is, an image having a luminance proportional to the power of the luminance is displayed, which is not a preferable characteristic. For this reason, it is necessary to perform image conversion in accordance with the characteristics of the output device. In general, a standardized color space called sRGB based on an average monitor characteristic (see Non-Patent Document 1) is widespread, and digital cameras are often converted into sRGB image data and output.

このように従来型のワークフローでは、sRGBを標準色空間として用いることで、そのままモニタに表示しても概ね良好な色再現を得ることができた。   As described above, in the conventional workflow, by using sRGB as the standard color space, it is possible to obtain a generally good color reproduction even when displayed on the monitor as it is.

ところで、sRGBは、上記したように平均的なモニタに合わせた色空間なので、その色再現範囲は、ほぼモニタと同様な範囲に限定される。一方、プリンタの色再現範囲には、モニタよりも広い部分がある。例えば、インクジェットプリンタのシアン領域にはsRGBでは再現できない領域が存在する。また、撮影対象となる被写体には、これらの領域に属する色が存在するが、このような色は、プリンタでは再現する能力があるにもかかわらず、sRGBの色再現範囲に圧縮されてしまうため、再現できなくなる。   By the way, since sRGB is a color space matched to an average monitor as described above, the color reproduction range is limited to a range substantially similar to that of the monitor. On the other hand, the color reproduction range of the printer has a part wider than the monitor. For example, there is a region that cannot be reproduced by sRGB in the cyan region of an inkjet printer. In addition, there are colors belonging to these areas in the subject to be photographed, but such colors are compressed into the sRGB color reproduction range even though the printer has the ability to reproduce them. It becomes impossible to reproduce.

更に、自然界の撮影シーンは様々であり、実際のシーンの輝度域は、屋外では数千:1のオーダーに至ることもしばしば発生する。そのため、デジタルカメラでは例えば、感度の異なる2種類のCCDを用いて画像合成を行うなどしてダイナミックレンジを拡大する各種の方式が提案されている。しかし、sRGB空間は、モニタの輝度レンジに限定されているため、実際のシーンを表現するにはダイナミックレンジが不足している。   Furthermore, there are various shooting scenes in the natural world, and the luminance range of an actual scene often occurs on the order of several thousand: 1 outdoors. Therefore, various methods have been proposed for expanding the dynamic range of digital cameras, for example, by combining images using two types of CCDs having different sensitivities. However, since the sRGB space is limited to the luminance range of the monitor, the dynamic range is insufficient to represent an actual scene.

そこで最近、sRGBのようなモニタに合わせた色空間ではなく、実際の撮影シーンの特性に関連付けた画像データをデジタルカメラから出力する技術が提案されている。すなわち、測色的に定義された色空間に変換した、実際の撮影シーンの輝度に比例した画像データをデジタルカメラから出力し、或いは、輝度に比例した画像データでなくても、意図的に補正・強調等を加えない状態の画像データを出力する。このような簡単な数式で記述可能な変換によりシーンの輝度・色度値に変換可能な色空間をシーン参照色空間と呼ぶ。シーン参照色空間としては、例えばRIMM RGB、或いは、scRGB(IEC規格61966−2−2)が知られている。また、シーン参照色空間の色信号で表される画像データをシーン参照画像データと呼び、例えば、デジタルカメラで一般的に用いられているRaw画像データも、撮像素子の特性を表すマトリックス演算を施すことで、シーンの輝度値に変換可能なため、シーン参照画像データとみなせる。一方、従来のsRGBのような出力デバイスに合わせた画像データは出力参照画像データと呼ばれる。   Therefore, recently, a technique has been proposed in which image data associated with characteristics of an actual shooting scene is output from a digital camera instead of a color space adapted to a monitor such as sRGB. In other words, image data proportional to the brightness of the actual shooting scene, converted to a color space defined calorimetrically, is output from the digital camera, or it is intentionally corrected even if it is not image data proportional to the brightness. -Output image data without any emphasis. A color space that can be converted into scene luminance / chromaticity values by conversion that can be described by a simple mathematical expression is called a scene reference color space. For example, RIMM RGB or scRGB (IEC standard 61966-2-2) is known as the scene reference color space. Also, image data represented by color signals in the scene reference color space is called scene reference image data. For example, Raw image data generally used in a digital camera is also subjected to matrix calculation representing the characteristics of the image sensor. Thus, since it can be converted into the luminance value of the scene, it can be regarded as scene reference image data. On the other hand, image data matched with a conventional output device such as sRGB is called output reference image data.

上記のシーン参照色空間を用いれば、sRGB色空間よりも広いダイナミックレンジを表現できるため、日中の明るいシーンから、夜景のように暗いシーンまで様々な撮影シーンについて、階調潰れのない画像情報を記録することができる。しかし、モニタやプリンタのダイナミックレンジは、現実のシーンよりも著しく狭いため、シーン参照色空間のメリットを活かしながら出力デバイス上に画像を再現するためには、画像データに適したダイナミックレンジ圧縮が必要になる。   By using the above-mentioned scene reference color space, a dynamic range wider than that of the sRGB color space can be expressed. Therefore, image information with no gradation collapse can be obtained for various shooting scenes from a bright scene in the daytime to a dark scene such as a night view. Can be recorded. However, since the dynamic range of monitors and printers is significantly narrower than actual scenes, dynamic range compression suitable for image data is required to reproduce images on output devices while taking advantage of the scene reference color space. become.

上記のようなダイナミックレンジの広い画像データをレンジ圧縮する方式としては、以下の方式が提案されている。   The following methods have been proposed as a method for performing range compression on image data having a wide dynamic range as described above.

入力画像データが、0〜100%の範囲内か範囲外かを判定し、範囲外の画像データを解析して、白基準点或いは黒基準点を設定し、100%以下の画像データは高階調DLUTで色変換し、100%を超えるRGB値を含む場合には低階調DLUTで色変換を行う装置(特許文献1を参照)、シーン参照画像を用いて逆光、ハイコントラストなどのシーンタイプを判定し、特定のシーンにおいて白色点或いは黒色点を設定した後、主要被写体が適正な明るさになるように階調補正を行い、また、階調補正後の画像データを色の見えモデルを用いて出力デバイスに適した画像データに変換する装置(特許文献2を参照)、EXIF情報に基づいてアピアランス・パラメータを算出し、更にシーン参照画像データを解析し、シーンに人物が含まれるか否かでアピアランス・パラメータを修正し、該パラメータに基づいて好ましく見える画像データに変換する装置(特許文献3を参照)がある。   Determine whether the input image data is within the range of 0 to 100% or not, analyze the image data outside the range, set the white reference point or black reference point, and the image data below 100% is high gradation A device that performs color conversion with a DLUT and performs color conversion with a low-tone DLUT when RGB values exceeding 100% are included (see Patent Document 1), and scene types such as backlight and high contrast using a scene reference image After determining and setting a white point or black point in a specific scene, tone correction is performed so that the main subject has an appropriate brightness, and the color correction model is used for the image data after tone correction. A device that converts image data suitable for the output device (see Patent Document 2), calculates appearance parameters based on EXIF information, analyzes scene reference image data, and includes a person in the scene Modify the appearance parameters for determining whether there is a device for converting the image data visible Preferably (see Patent Document 3) on the basis of the parameters.

Multimedia Systems and Equipment −Colour Measurment and Management− Part2−1:Colour Management −Default RGB Colour Space− sRGB IEC61966−2−1Multimedia Systems and Equipment-Color Measurement and Management-Part2-1: Color Management-Default RGB Color Space-sRGB IEC 61966-2-1 CIE TECHNICAL REPORT−CIE159:2004CIE TECHNICICAL REPORT-CIE159: 2004 特開2006−80834号公報JP 2006-80834 A 特開2005−209012号公報Japanese Patent Application Laid-Open No. 2005-209012 特開2005−210526号公報Japanese Patent Laying-Open No. 2005-210526 特開2002−368983号公報JP 2002-368893 A

scRGBに代表されるシーン参照画像データをデジタルカメラから出力した場合、出力デバイス用の画像データに変換する必要がある。しかし、従来の方式では、撮影シーンと出力デバイスの観察条件の違いに起因する視覚特性の違いが十分に補正できないために、シーン参照画像データを好ましい出力デバイス用の画像データに変換できない。   When scene reference image data represented by scRGB is output from a digital camera, it is necessary to convert it into image data for an output device. However, in the conventional method, the difference in visual characteristics due to the difference in the observation conditions between the shooting scene and the output device cannot be sufficiently corrected, so that the scene reference image data cannot be converted into image data for a preferred output device.

上記した特許文献1の方式では、scRGB画像データを解析して白基準値或いは黒基準値に基づいて入力RGB信号を出力CMYK信号に変換するDLUTを調整し、入力RGB信号と出力CMYK信号が強い非線形特性をもっているため、DLUTとして三次元ルックアップテーブルを使用している。そのため、白基準値や黒基準値の変更に合わせてDLUTを調整する処理を自動的に行うためには複雑な演算が必要となり、その実現が困難である。また、白基準値の決定方法についても、単純に画像データ中の最高輝度値を検出しているが、画像データ中に光源色が含まれているような場合に、最高輝度値を白基準値とすると、主要な被写体領域で暗くなってしまうことが多い。   In the above-described method of Patent Document 1, scRGB image data is analyzed and a DLUT for converting an input RGB signal into an output CMYK signal is adjusted based on a white reference value or a black reference value, and the input RGB signal and the output CMYK signal are strong. Since it has non-linear characteristics, a three-dimensional lookup table is used as the DLUT. For this reason, in order to automatically perform the process of adjusting the DLUT in accordance with the change of the white reference value or the black reference value, a complicated calculation is required, which is difficult to realize. Also, regarding the method of determining the white reference value, the highest luminance value in the image data is simply detected, but if the light source color is included in the image data, the highest luminance value is determined as the white reference value. Then, it often becomes dark in the main subject area.

また、特許文献2のダイナミックレンジ圧縮方式では、scRGB画像を解析して設定した基準白色点及び基準黒色点を用いて、sRGB空間のダイナミックレンジに納まるように階調補正しているが、階調補正でsRGBの階調範囲に圧縮されるため、プリンタで再現可能な、例えばシアン色などもsRGB色再現範囲内に圧縮され、scRGB画像のメリットを損なってしまう。また、均一な階調補正を行っているため、被写体の明るさとハイライトの階調再現が両立しないという問題も生じる。   In the dynamic range compression method of Patent Document 2, tone correction is performed using the reference white point and the reference black point set by analyzing the scRGB image so as to fall within the dynamic range of the sRGB space. Since the correction is compressed to the gradation range of sRGB, for example, cyan that can be reproduced by the printer is also compressed within the sRGB color reproduction range, and the merit of the scRGB image is lost. In addition, since uniform gradation correction is performed, there is a problem that the brightness of the subject and the gradation reproduction of the highlight are not compatible.

更に、特許文献3の色の見えモデルのパラメータをシーンに応じて設定する方法でも、画像に応じて適切な階調特性を実現するには、画像ごとに複雑なカラーアピアランスの計算を行わねばならず、演算負荷が大きい。   Further, even in the method of setting the parameters of the color appearance model according to Patent Document 3 in accordance with the scene, it is necessary to perform a complicated color appearance calculation for each image in order to achieve appropriate gradation characteristics according to the image. The calculation load is large.

本発明は、上記課題に鑑みてなされたもので、
本発明の目的は、シーン参照画像データを出力デバイス用の画像データに変換する場合に、演算負荷が少なく、かつ出力デバイスの色再現能力を活かしたダイナミックレンジ圧縮を実現する画像処理方法、画像処理装置、プログラムおよび記録媒体を提供することにある。
The present invention has been made in view of the above problems,
SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing method and image processing that realizes dynamic range compression utilizing a color reproduction capability of an output device with a small calculation load when converting scene reference image data to image data for an output device. To provide an apparatus, a program, and a recording medium.

本発明の他の目的は、被写体の明るさとハイライトの階調再現の両立が可能なダイナミックレンジ圧縮を行う画像処理方法、画像処理装置、プログラムおよび記録媒体を提供することにある。
即ち、
請求項1の目的は、ダイナミックレンジの広いシーン参照画像データを出力デバイス用の画像データに変換する場合に、演算負荷が少なく、かつ出力デバイスの色再現能力を活かしたダイナミックレンジ圧縮を実現する画像処理方法を提供することにある。
Another object of the present invention is to provide an image processing method, an image processing apparatus, a program, and a recording medium that perform dynamic range compression that can achieve both of the brightness of a subject and gradation reproduction of highlights.
That is,
An object of claim 1 is an image that realizes dynamic range compression that uses less computational load and takes advantage of the color reproduction ability of an output device when converting scene reference image data having a wide dynamic range into image data for an output device. It is to provide a processing method.

請求項2の目的は、請求項1記載の画像処理方法において、シーン参照画像データの色成分ごとの演算のみでダイナミックレンジ変換が可能な演算負荷が少ない画像処理方法を提供することにある。   An object of a second aspect of the present invention is to provide an image processing method of the first aspect of the present invention, which has a low computational load and can perform dynamic range conversion only by calculation for each color component of scene reference image data.

請求項3の目的は、シーン参照画像データの特徴に応じて、好ましいダイナミックレンジ変換を行う画像処理方法を提供することにある。   An object of the present invention is to provide an image processing method for performing preferable dynamic range conversion according to the characteristics of scene reference image data.

請求項4の目的は、人物を含まない写真画像に対する好ましいダイナミックレンジの変換方法を提供することにある。   An object of the present invention is to provide a preferable dynamic range conversion method for a photographic image not including a person.

請求項5の目的は、被写体である人物部分の輝度レベルが適正な画像に対する好ましいダイナミックレンジの変換方法を提供することにある。   An object of the present invention is to provide a preferable dynamic range conversion method for an image in which the luminance level of a person portion as a subject is appropriate.

請求項6の目的は、被写体である人物部分の輝度レベルが不適正な逆光画像やハイコントラスト画像に対して、好ましいダイナミックレンジの変換方法を提供することにある。   An object of the present invention is to provide a preferable dynamic range conversion method for a backlight image or a high-contrast image in which the luminance level of the person portion that is the subject is inappropriate.

請求項7の目的は、請求項6の画像処理方法において、被写体領域と非被写体領域の境界での階調とびを抑制できる画像処理方法を提供することにある。   An object of a seventh aspect of the present invention is to provide an image processing method according to the sixth aspect of the present invention, which can suppress a gradation jump at the boundary between the subject area and the non-subject area.

請求項8の目的は、ダイナミックレンジの広いシーン参照画像データを出力デバイス上で好ましく見える観賞用画像データに変換する場合に、演算負荷が少なく、かつ出力デバイスの色再現能力を活かしたダイナミックレンジ圧縮を実現する画像装置を提供することにある。   The purpose of claim 8 is to convert scene reference image data having a wide dynamic range into ornamental image data that can be seen favorably on the output device, and to reduce dynamic load and to take advantage of the color reproduction capability of the output device. An object of the present invention is to provide an image device that realizes the above.

請求項9の目的は、ダイナミックレンジの広いシーン参照画像データを出力デバイス上で好ましく見える観賞用画像データに変換する場合に、演算負荷が少なく、かつ出力デバイスの色再現能力を活かしたダイナミックレンジ圧縮を実現する色変換プログラムを提供することにある。   The object of the present invention is to reduce dynamic load when converting scene reference image data having a wide dynamic range into ornamental image data that can be seen favorably on the output device, and to take advantage of the color reproduction capability of the output device. It is to provide a color conversion program for realizing the above.

本発明は、シーン参照色空間上の入力色信号を、出力デバイス用の色信号に変換する画像処理方法であって、前記入力色信号の色分布を解析し、前記解析結果に基づいて階調圧縮条件を決定し、前記階調圧縮条件に従って前記入力色信号をシーン参照色空間よりも狭く、かつ出力デバイスの色再現範囲を包含する拡張色空間に写像し、前記拡張色空間に写像された色信号を出力デバイス用の色信号に色変換することを最も主要な特徴とする。   The present invention is an image processing method for converting an input color signal in a scene reference color space into a color signal for an output device, analyzing a color distribution of the input color signal, and performing gradation based on the analysis result Compression conditions are determined, and the input color signal is mapped to an extended color space that is narrower than the scene reference color space and includes the color reproduction range of the output device according to the gradation compression conditions, and is mapped to the extended color space The most important feature is color conversion of a color signal into a color signal for an output device.

本発明(請求項1、8、9)によると、入力画像データの色分布に適した階調圧縮条件を決定して、シーン参照色空間上の色信号を出力デバイスの色再現範囲を包含する拡張色空間上に階調圧縮しているため、簡単な演算で出力デバイスの色再現能力を100%活かしたハイダイナミックレンジ画像のレンジ圧縮を行うことができる。   According to the present invention (claims 1, 8, and 9), gradation compression conditions suitable for the color distribution of the input image data are determined, and the color signal in the scene reference color space is included in the color reproduction range of the output device. Since gradation compression is performed in the extended color space, it is possible to perform range compression of a high dynamic range image using 100% of the color reproducibility of the output device with a simple calculation.

本発明(請求項2)によると、前記拡張色空間として、シーン参照色空間で表される色信号から1次元ルックアップテーブルを用いて変換可能な色空間を用いているため、演算負荷を低減できる。   According to the present invention (Claim 2), since the color space that can be converted from the color signal represented in the scene reference color space using a one-dimensional lookup table is used as the extended color space, the calculation load is reduced. it can.

本発明(請求項3)によると、色分布の解析時に被写体領域の輝度及び画像の輝度レンジを抽出しているため、画像の特徴に応じたダイナミックレンジ圧縮を行うことができる。   According to the present invention (Claim 3), since the luminance of the subject region and the luminance range of the image are extracted at the time of analyzing the color distribution, it is possible to perform dynamic range compression according to the characteristics of the image.

本発明(請求項4)によると、シーン参照画像が人物領域を含まない場合は、線形な輝度変換を行って入力信号のレンジを圧縮し、前記圧縮された色信号から拡張色空間上の色信号に変換しているため、複雑な非線形処理を画像によらず共通化することができ、レンジ補正の演算処理を単純化することができる。   According to the present invention (Claim 4), when the scene reference image does not include a person region, the range of the input signal is compressed by performing linear luminance conversion, and the color in the extended color space is converted from the compressed color signal. Since it is converted into a signal, complicated non-linear processing can be made common regardless of the image, and calculation processing for range correction can be simplified.

本発明(請求項5)によると、シーン参照画像の人物領域の輝度が適正な場合に、線形な輝度変換を行って入力信号のレンジを圧縮し、前記圧縮された色信号から拡張色空間上の色信号に変換しているため、複雑な非線形処理を画像によらず共通化することができ、レンジ補正の演算処理を単純化することができる。   According to the present invention (Claim 5), when the luminance of the human area of the scene reference image is appropriate, linear luminance conversion is performed to compress the range of the input signal, and the compressed color signal is converted into the extended color space. Therefore, complicated non-linear processing can be made common regardless of an image, and range correction calculation processing can be simplified.

本発明(請求項6)によると、シーン参照画像の人物領域の輝度が不適正な場合に、人物領域と非人物領域で異なるレンジ圧縮を行っているため、被写体の明るさとハイライトの階調再現の両立することができる。   According to the present invention (Claim 6), when the luminance of the human area of the scene reference image is inappropriate, different range compression is performed for the human area and the non-human area, so the brightness of the subject and the gradation of highlight Both reproduction can be achieved.

本発明(請求項7)によると、請求項6の発明において、注目画素近傍の輝度分布特性及び注目画素の属性を用いて、変換特性を設定しているため、被写体領域と非被写体領域の境界で不自然な擬似輪郭の発生を抑止することができる。   According to the present invention (Claim 7), in the invention of Claim 6, since the conversion characteristic is set using the luminance distribution characteristic near the target pixel and the attribute of the target pixel, the boundary between the subject area and the non-subject area Therefore, it is possible to suppress the generation of an unnatural pseudo contour.

以下、発明の実施の形態について図面により詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

実施例1:
1.画像処理システム
図3は、本発明の画像処理システムの構成例を示す。図3において、203はコンピュータであり、各種色修正アプリケーションやプリンタ・ドライバ等のソフトウェアが実装される。デジタルカメラ201、スキャナ202は処理される画像データを取り込むための入力装置である。ディスプレイ200は、画像データを表示するための出力装置で、カラー・プリンタ204は、画像データをプリンタアウトするための出力装置である。なお、カラー・プリンタは、カラーコピー機やカラーファクシミリ機でもよい。
Example 1:
1. Image Processing System FIG. 3 shows a configuration example of the image processing system of the present invention. In FIG. 3, reference numeral 203 denotes a computer on which various color correction applications and software such as a printer driver are mounted. A digital camera 201 and a scanner 202 are input devices for capturing image data to be processed. The display 200 is an output device for displaying image data, and the color printer 204 is an output device for printing out image data. The color printer may be a color copier or a color facsimile machine.

図3の画像処理システムにおいて、デジタルカメラ201、スキャナ202は、写真などをマトリックス状の画素として表した画像データをコンピュータ203に出力する。コンピュータ203は、入力された画像データをディスプレイ表示やプリント出力に適した画像データに変換し、変換されたRGB画像データをディスプレイ200に表示させる機能や、プリンタ・ドライバを介してCMYもしくはCMYKの2値データに変換してカラー・プリンタ204に印刷させる機能を有している。そして、ディスプレイ200やプリンタ204は、画像処理された画像データをドットマトリクス状の画像として表示/出力する。   In the image processing system of FIG. 3, a digital camera 201 and a scanner 202 output image data representing a photograph or the like as a matrix pixel to the computer 203. The computer 203 converts the input image data into image data suitable for display display or print output, and displays the converted RGB image data on the display 200, or CMY or CMYK 2 via a printer driver. It has a function of converting it into value data and causing the color printer 204 to print it. The display 200 and the printer 204 display / output the image processed image data as a dot matrix image.

2.ハイダイナミックレンジ画像データ
次に、デジタルカメラ201の撮像装置やスキャナ202などにより入力される画像データについて説明する。従来のデジタルカメラでは、デジタルカメラ内でディスプレイ表示に適したsRGBデータに変換しEXIFフォーマットにフォーマット変換した上で、コンピュータに画像データを送出することが一般的である。しかし、sRGB色空間の色再現範囲が狭いことから様々なシーン参照色空間が提案されている。scRGB色空間(IEC規格61966−2−2)は、次期Windowsシステムで採用されることから、近年、特に注目されている。
2. High Dynamic Range Image Data Next, image data input by the imaging device of the digital camera 201 and the scanner 202 will be described. In a conventional digital camera, it is common to convert image data into sRGB data suitable for display display in the digital camera and convert the format to EXIF format, and then send the image data to a computer. However, various scene reference color spaces have been proposed because the color reproduction range of the sRGB color space is narrow. The scRGB color space (IEC standard 61966-2-2) has been attracting particular attention in recent years because it will be adopted in the next Windows system.

以下、本実施例ではシーン参照画像データとして、scRGB画像を用いるものとして説明するが、RAWデータなど他の色空間で表されるシーン参照画像データでも構わない。   In the following description, the scRGB image is used as the scene reference image data in the present embodiment, but scene reference image data represented in other color spaces such as RAW data may be used.

scRGB画像データについて説明すると、IEC規格61966−2−2によれば、scRGBデータと、XYZ三刺激値との関係は下記のように定義されている。   The scRGB image data will be described. According to the IEC standard 61966-2-2, the relationship between the scRGB data and the XYZ tristimulus values is defined as follows.

Figure 2008072551
Figure 2008072551

上記の定義式からわかるように、scRGB信号はXYZ三刺激値から線形変換で求められる。また、Yの輝度レンジは、−0.5〜7.5として定義されており、参照白色点(Y=1.0)よりも明るい白色を含む画像データも扱うことができる。また、従来のsRGB信号は8ビットデータ(0〜255)であるのに対して、scRGB信号は16ビットデータ(0〜65535)であるため、sRGBよりも多くの階調表現が可能であり、実際の撮影シーンの広いダイナミックレンジ情報を損なうことなく表現できる。このように従来よりも広いダイナミックレンジを再現した画像をハイダイミックレンジ画像(HDR画像)と呼ぶ。例えば、図2(a)にあるような人物の背景に明るい光が差し込んでいる画像の場合、カメラが人物にフォーカスして露出制御し、sRGB画像を生成すると背景の階調がつぶれてしまう。図2(b)の輝度ヒストグラムの例では、白を表す点(図中の右端)での頻度が際立って高く、ハイライトで階調が潰れてしまっているのがわかる。一方、scRGB画像データの場合は、1を超えるような輝度を表現できるため背景の逆光部分についても階調つぶれのない画像データとして出力できる。   As can be seen from the above definition, the scRGB signal is obtained from the XYZ tristimulus values by linear conversion. The luminance range of Y is defined as -0.5 to 7.5, and image data including white lighter than the reference white point (Y = 1.0) can be handled. In addition, since the conventional sRGB signal is 8-bit data (0 to 255), the scRGB signal is 16-bit data (0 to 65535), so that more gradations can be expressed than sRGB. The wide dynamic range information of the actual shooting scene can be expressed without loss. An image that reproduces a dynamic range wider than the conventional one is referred to as a high dynamic range image (HDR image). For example, in the case of an image in which bright light is inserted into the background of a person as shown in FIG. 2A, when the camera performs exposure control with focus on the person and generates an sRGB image, the gradation of the background is lost. In the example of the luminance histogram in FIG. 2B, it can be seen that the frequency at the point representing white (the right end in the figure) is remarkably high, and the gradation is crushed by the highlight. On the other hand, in the case of scRGB image data, a luminance exceeding 1 can be expressed, so that the backlit portion of the background can be output as image data with no gradation collapse.

3.画像処理の全体フロー
図1は、コンピュータ203内に備えた画像処理装置の構成を示す。画像処理装置は、レンジ圧縮部101、色補正部102、画像解析部103を備える。画像解析部103は、scRGB画像データの色分布を解析して、トーンマッピング処理のためのレンジ圧縮条件を設定する。レンジ圧縮部101は、画像解析部103で設定されたレンジ圧縮条件に基づいてダイナミックレンジ圧縮を行う。ここで、レンジ圧縮部101は、scRGB画像データを後述の拡張RGB色空間で表現可能なレンジ範囲内へ変換する。色補正部103は、拡張RGBのダイナミックレンジへ圧縮された色信号に対してメモリマップ補間演算を行って、プリンタ出力信号であるCMYK信号へ変換する。
3. Overall Flow of Image Processing FIG. 1 shows a configuration of an image processing apparatus provided in the computer 203. The image processing apparatus includes a range compression unit 101, a color correction unit 102, and an image analysis unit 103. The image analysis unit 103 analyzes the color distribution of the scRGB image data and sets a range compression condition for tone mapping processing. The range compression unit 101 performs dynamic range compression based on the range compression conditions set by the image analysis unit 103. Here, the range compression unit 101 converts the scRGB image data into a range range that can be expressed in an extended RGB color space described later. The color correction unit 103 performs a memory map interpolation operation on the color signal compressed to the extended RGB dynamic range, and converts it into a CMYK signal that is a printer output signal.

上記変換における色空間の再現範囲の関係について、図4を用いて説明する。入力色空間であるscRGB色空間の色再現範囲は非常に広く、−0.5〜7.5までのダイナミックレンジを表現できる。一方、sRGB空間は標準的なディスプレイの色再現範囲を表しており、図4に示すようにプリンタの色再現範囲をカバーできていない。そのため、scRGB画像をsRGB画像のレンジに変換してしまうと、プリンタの色再現範囲を100%利用できなくなってしまう。   The relationship of the color space reproduction range in the conversion will be described with reference to FIG. The color reproduction range of the scRGB color space, which is the input color space, is very wide and can express a dynamic range of -0.5 to 7.5. On the other hand, the sRGB space represents a standard display color reproduction range, and cannot cover the printer color reproduction range as shown in FIG. Therefore, if the scRGB image is converted into the sRGB image range, the color reproduction range of the printer cannot be used 100%.

そこで、本発明では、プリンタの再現範囲をカバーできる色空間として拡張RGB空間にレンジ圧縮した後、プリンタ信号へ色変換することでプリンタの色再現能力を100%活かせるようにしている。拡張RGB色空間としては、scRGB色空間よりは狭いが、sRGB色空間とプリンタの色空間の両方を包含する色空間となる。かかる色空間としては、AdobeRGB空間が知られているが、scRGB色信号をAdobeRGB信号に変換するにはマトリックス演算が必要となり、計算が複雑になる。そこで、本実施例ではscRGB空間から単純なテーブル変換で変換可能なe−sRGB色空間を用いる。e−sRGBとXYZ三刺激との関係は以下のように定義されている。   Therefore, in the present invention, the color reproduction capability of the printer is made 100% effective by performing range compression to the extended RGB space as a color space that can cover the reproduction range of the printer and then converting the color to a printer signal. The extended RGB color space is narrower than the scRGB color space, but is a color space that includes both the sRGB color space and the printer color space. As such a color space, the AdobeRGB space is known. However, in order to convert the scRGB color signal into the AdobeRGB signal, a matrix operation is required, and the calculation is complicated. Therefore, in this embodiment, an e-sRGB color space that can be converted from the scRGB space by simple table conversion is used. The relationship between e-sRGB and XYZ tristimulus is defined as follows.

e−sRGBのビット数をn、e−sRGB信号の成分値をCとすると、式(3)で正規化を行う。なお、e−sRGB信号のビット数は10ビット、12ビット、16ビットが規格化されている。   When the number of bits of e-sRGB is n and the component value of the e-sRGB signal is C, normalization is performed by Expression (3). The number of bits of the e-sRGB signal is standardized to 10 bits, 12 bits, and 16 bits.

Figure 2008072551
Figure 2008072551

次に、上記C’の値に応じて、非線形変換を行って輝度リニアな信号に変換する。
(1)C’<−0.04045の場合
Next, in accordance with the value of C ′, nonlinear conversion is performed to convert it into a luminance linear signal.
(1) When C ′ <− 0.04045

Figure 2008072551
Figure 2008072551

(2)−0.04045<=C’<=0.04045の場合 (2) When -0.04045 <= C '<= 0.04045

Figure 2008072551
Figure 2008072551

(3)C’>0.04045の場合 (3) When C ′> 0.04045

Figure 2008072551
そして、下記のマトリックス変換でXYZ三刺激値に変換できる。
Figure 2008072551
And it can convert into an XYZ tristimulus value by the following matrix conversion.

Figure 2008072551
Figure 2008072551

本実施例では、e−sRGB信号のビット数はプリンタの階調再現能力を考慮して10ビットとして説明するが、これに限らない。また、上式からわかるようにマトリックス変換係数は、scRGBやsRGBと同一である。従って、e−sRGBとscRGBの関係としては、3原色及び白色点の色度値は一致しており、その輝度レンジのみが異なっている。輝度レベル=0は、e−sRGBでは384であり、scRGBでは4096に相当する。また、輝度レベル=1は、e−sRGBでは894であり、scRGBでは12288となる。図5は、scRGB信号とe−sRGB信号の特性を示す。   In the present embodiment, the number of bits of the e-sRGB signal is described as 10 bits in consideration of the gradation reproduction capability of the printer, but is not limited thereto. Further, as can be seen from the above equation, the matrix conversion coefficients are the same as scRGB and sRGB. Therefore, as for the relationship between e-sRGB and scRGB, the chromaticity values of the three primary colors and the white point are the same, and only their luminance ranges are different. The luminance level = 0 is 384 for e-sRGB and 4096 for scRGB. The luminance level = 1 is 894 for e-sRGB and 12288 for scRGB. FIG. 5 shows the characteristics of the scRGB signal and the e-sRGB signal.

4.詳細説明
4.1 画像解析部103の動作説明
画像解析部103の動作について、図6のフローチャートを用いて説明する。レンジの圧縮方法としては、簡易的には入力画像の最大輝度がレンジ圧縮後のe−sRGB画像の最大輝度値に一致するように輝度を線形に圧縮する方法が考えられる。しかし、雪景色のシーンや夏の海辺など周囲に非常に強い光を含むようなシーンでは、被写体である人物が相対的に暗く写ってしまう場合が多い。また、逆光画像も同様で、フラッシュ撮影をしない場合には人物の顔が暗くなってしまう。このように撮影シーンの背景部に輝度レベルの高い領域を含む画像において線形なレンジ圧縮処理を行っても被写体の明るさと背景の階調再現を両立することができない。
そこで、本実施例では、ダイナミックレンジを圧縮する際に画像の被写体領域の輝度レベルと背景領域の輝度レベルに基づいて、レンジ圧縮方法を制御するようにしている。
まず、ステップS1において、入力画像のレンジを算出する。具体的には、scRGBデータのr、g、b成分ごとに、その累積頻度分布を生成し、累積頻度が99%に相当する成分値を求める。この求めた3つの最大成分値をそれぞれmaxR,maxG,maxBとする。そして、これら3つの最大成分値の最大値を入力画像のレンジとみなし、maxCとする。即ち、レンジ圧縮処理ではscRGB信号の0〜maxCの範囲をe−sRGBの範囲内になるように処理することになる。
4). 4. Detailed Description 4.1 Operation Description of Image Analysis Unit 103 The operation of the image analysis unit 103 will be described with reference to the flowchart of FIG. As a range compression method, a method of linearly compressing the luminance so that the maximum luminance of the input image matches the maximum luminance value of the e-sRGB image after the range compression can be considered. However, in a scene with a very strong light in the surroundings, such as a snowy scene or a summer beach, the subject person often appears relatively dark. The same applies to a backlight image, and the face of a person becomes dark when flash photography is not performed. Thus, even if linear range compression processing is performed on an image including a region with a high luminance level in the background portion of the shooting scene, it is impossible to achieve both the brightness of the subject and the gradation reproduction of the background.
Therefore, in this embodiment, when compressing the dynamic range, the range compression method is controlled based on the luminance level of the subject area of the image and the luminance level of the background area.
First, in step S1, the range of the input image is calculated. Specifically, a cumulative frequency distribution is generated for each of r, g, and b components of scRGB data, and a component value corresponding to a cumulative frequency of 99% is obtained. The three maximum component values obtained are set as maxR, maxG, and maxB, respectively. The maximum value of these three maximum component values is regarded as the range of the input image and is set to maxC. That is, in the range compression process, the scRGB signal is processed so that the range of 0 to maxC falls within the range of e-sRGB.

もし、maxCが輝度1.0に相当するscRGBの信号値12288に満たない場合には、maxCが12288になるように、以下の変換を行って輝度レンジの伸張を行う。即ち
Rsc’=(8192×(Rsc−4096)/(maxC−4096))+4096
Gsc’=(8192×(Gsc−4096)/(maxC−4096))+4096
Bsc’=(8192×(Bsc−4096)/(maxC−4096))+4096
また、上記において、scRGBの輝度レンジは−0.5〜7.5の範囲にあるが、メモリ節約のために最初に256階調での累積頻度分布を作成して、累積頻度分布が99%未満となる輝度値Y1と100%となる最大輝度Y2を求め、Y1とY2の間を更に細分化して累積分布を求めるようにしてもよい。
If maxC is less than scRGB signal value 12288 corresponding to luminance 1.0, the luminance range is expanded by performing the following conversion so that maxC becomes 12288. That is, Rsc ′ = (8192 × (Rsc−4096) / (maxC−4096)) + 4096
Gsc ′ = (8192 × (Gsc−4096) / (maxC−4096)) + 4096
Bsc ′ = (8192 × (Bsc−4096) / (maxC−4096)) + 4096
In the above, the luminance range of scRGB is in the range of -0.5 to 7.5. In order to save memory, a cumulative frequency distribution with 256 gradations is first created, and the cumulative frequency distribution is 99%. The luminance value Y1 that is less than the maximum luminance Y2 that is 100% may be obtained, and the cumulative distribution may be obtained by further subdividing between Y1 and Y2.

次に、ステップS2において、入力画像のホワイトポイントを求める。白色領域の抽出は、輝度ヒストグラムを基に、最大輝度の95%以上の色&彩度10以下の平均値、彩度が10以下の色が存在しない場合には、WhitePointが存在しないものとして、規定値を用いる。   Next, in step S2, the white point of the input image is obtained. The extraction of the white region is based on the luminance histogram, and when there is no average value of 95% or more of the maximum luminance and a saturation value of 10 or less and a color with a saturation value of 10 or less does not exist, WhitePoint does not exist. Use the default value.

次に、ステップS3へ進み、顔領域の検出を行う。顔検出方法は、近年パターンマッチング法や、ニューラルネットのような学習モデルを用いた検出方法が提案されており、既に商品にも実装されている。顔領域を検出したら、次に顔領域の肌色色相に含まれる画素について平均輝度SkinYを求める(ステップS4)。
但し、画像に顔が含まれていない場合には、SkinY=−1とする。
Next, the process proceeds to step S3, and the face area is detected. In recent years, as a face detection method, a pattern matching method or a detection method using a learning model such as a neural network has been proposed and has already been implemented in products. If the face area is detected, the average luminance SkinY is next obtained for the pixels included in the skin color hue of the face area (step S4).
However, if the image does not include a face, SkinY = −1.

以上の処理により求めたmaxC,WhiteY,SkinYをレンジ圧縮部101へ送ってレンジ圧縮処理を行う。   The range compression processing is performed by sending maxC, WhiteY, and SkinY obtained by the above processing to the range compression unit 101.

4.2 レンジ圧縮部101の動作
次に、レンジ圧縮部101では、画像解析部103により求めた被写体輝度SkinYとホワイトポイントWhiteY、入力画像のレンジmaxCに従ってscRGB信号の輝度変換を行った後、e−sRGB信号に変換するための非線形変換を施す。以下、図7のフローチャートを用いて、レンジ圧縮処理を説明する。
4.2 Operation of Range Compression Unit 101 Next, the range compression unit 101 performs scRGB signal luminance conversion according to the subject luminance SkinY and white point WhiteY obtained by the image analysis unit 103 and the range maxC of the input image, and then e. -Perform nonlinear conversion to convert to sRGB signals. Hereinafter, the range compression process will be described with reference to the flowchart of FIG.

ステップS12では、SkinY=−1か否かを判定する。SkinYが−1の場合、画像中に被写体が含まれていないことを意味している。このような場合には、ステップS14で入力画像のレンジminC,maxCを参照して輝度リニアなレンジ変換を行う。次に、ステップS13で被写体輝度SkinYが適正か否かを判定する。判定方法としては、被写体の平均輝度と画像のダイナミックレンジを比較して、ダイナミックレンジに対して被写体の輝度が適正かどうかを判定する。例えば、SkinY/maxCの比率が所定の範囲内であれば適正とみなす。前記適正な比率は、予め官能評価実験を行って設定しておく。比率が適切であれば、上記と同様に輝度をリニアに圧縮することで人物が好ましい明るさに補正される。   In step S12, it is determined whether SkinY = −1. When SkinY is -1, it means that no subject is included in the image. In such a case, linear luminance range conversion is performed in step S14 with reference to the input image ranges minC and maxC. Next, in step S13, it is determined whether or not the subject brightness SkinY is appropriate. As a determination method, the average luminance of the subject is compared with the dynamic range of the image, and it is determined whether the luminance of the subject is appropriate for the dynamic range. For example, if the ratio of SkinY / maxC is within a predetermined range, it is regarded as appropriate. The appropriate ratio is set in advance by performing a sensory evaluation experiment. If the ratio is appropriate, the person is corrected to a preferable brightness by linearly compressing the luminance as described above.

上記の人物を含まない画像或いは人物の輝度レベルが適正な画像については、ステップS14で輝度リニアなレンジ圧縮処理を行う。以下に、レンジ処理の変換方法を示す。
(1)輝度変換
求めた基準白色点maxCに基づいて、scRGBの値を輝度変換する。scRGBはもともと輝度リニアの信号であるため、r,g,b成分ごとの比が一定であれば、色相が保たれる。輝度変換は下記の一次変換で行うことができる。
For an image that does not include a person or an image with an appropriate person brightness level, a linear range compression process is performed in step S14. The range processing conversion method will be described below.
(1) Luminance conversion Based on the obtained reference white point maxC, the luminance of the scRGB value is converted. Since scRGB is originally a luminance linear signal, the hue is maintained if the ratio of each of the r, g, and b components is constant. The luminance conversion can be performed by the following primary conversion.

scd=(sc−4096)*(17694−4096)/(maxC−4096)+4096
ここで、scはscRGB信号の入力値、scdは輝度変換後の信号値である。上記計算により、入力データは、e−sRGB信号のレンジ範囲内に圧縮される。図8は、レンジ補正による入出力特性例を示す。
(2)scRGB→e−sRGB変換
e−sRGBのレンジ範囲内に圧縮済みのscRGB信号をe−sRGBへ変換する。scRGB信号は16ビットの信号であるため、1次元ルックアップテーブルで変換できるが、16ビットのルックアップテーブルではメモリを大量に消費してしまう。そこで、変換式を用いてe−sRGB信号に変換する。即ち、
x=(scd/8192.0)−0.5
if(x<−0.0031308)
x’=−(1.055×(−x)^(1/2.4)−0.055)
if(−0.0031308<=x<0.0031308)
x’=12.92×(x)
if(x>0.0031308)
x’=1.055×(x)^(1/2.4)−0.055
esd=255.0*2^(n−9)*x’+offset
で変換できる。ここで、esdはe−sRGBの信号値であり、offsetは10ビットのe−sRGB信号の場合、384となる。上記変換の変換特性を図9に示す。
scd = (sc−4096) * (17694-4096) / (maxC−4096) +4096
Here, sc is an input value of the scRGB signal, and scd is a signal value after luminance conversion. With the above calculation, the input data is compressed within the range of the e-sRGB signal. FIG. 8 shows an example of input / output characteristics by range correction.
(2) scRGB → e-sRGB conversion The scRGB signal compressed within the range of e-sRGB is converted to esRGB. Since the scRGB signal is a 16-bit signal, it can be converted by a one-dimensional lookup table, but the 16-bit lookup table consumes a large amount of memory. Therefore, it is converted into an e-sRGB signal using a conversion formula. That is,
x = (scd / 8192.0) −0.5
if (x <−0.0031308)
x ′ = − (1.055 × (−x) ^ (1 / 2.4) −0.055)
if (−0.0031308 <= x <0.0031308)
x ′ = 12.92 × (x)
if (x> 0.0031308)
x ′ = 1.055 × (x) ^ (1 / 2.4) −0.055
esd = 255.0 * 2 ^ (n-9) * x '+ offset
Can be converted. Here, esd is an e-sRGB signal value, and offset is 384 in the case of a 10-bit e-sRGB signal. The conversion characteristics of the above conversion are shown in FIG.

ステップS13において、被写体輝度が適正でないと判定された場合には、ステップS15へ進み、画像全体を解析して背景領域と被写体領域に分離する。背景/被写体領域の分離方法としては、例えば、特許文献4の方式を用いて実現できる。分離結果は被写体領域を0、背景領域を1とする1ビットのレイアメモリに記録する。図10は、分離結果の例を示す。   If it is determined in step S13 that the subject brightness is not appropriate, the process proceeds to step S15, where the entire image is analyzed and separated into a background region and a subject region. As a background / subject region separation method, for example, the method disclosed in Patent Document 4 can be used. The separation result is recorded in a 1-bit layer memory in which the subject area is 0 and the background area is 1. FIG. 10 shows an example of the separation result.

背景領域と被写体領域に分離されたら、背景領域と被写体領域の双方で階調再現性の良い画像を得るために、ステップS16でレンジ補正テーブルを作成する。この時、被写体領域については、被写体に基づいて決定したレンジ補正を行い、高輝度白色光を含んだハイライト領域ではハイライト領域に適したレンジ圧縮を行うように画像中で動的にレンジ補正テーブルを変更する。例えば、被写体領域に対しては、図11(a)の補正テーブルを、ハイライト領域に対しては図11(b)の補正テーブルを用いる。但し、前述のとおりメモリ節約のために、1次元ルックアップテーブルよりも演算式による変換を行う方が良い。   When the background area and the subject area are separated, a range correction table is created in step S16 in order to obtain an image with good gradation reproducibility in both the background area and the subject area. At this time, for the subject area, range correction determined based on the subject is performed, and in the highlight area including high-intensity white light, the range correction is dynamically performed in the image so as to perform range compression suitable for the highlight area. Change the table. For example, the correction table of FIG. 11A is used for the subject area, and the correction table of FIG. 11B is used for the highlight area. However, as described above, in order to save memory, it is better to perform conversion using an arithmetic expression than a one-dimensional lookup table.

ここで、被写体領域と背景領域の境界部で擬似輪郭が生じないように連続的な変換が必要となる。そのため、注目画素を中心とする周囲N×Nの画素を参照して補正テーブルを作成する。まず、N×N画素中に被写体領域と背景領域の比率Rsを求める。次に、N×N画素中の輝度レンジを求める。輝度レンジが小さい場合には、被写体領域には被写体領域用の補正テーブルを使用し、背景領域には背景領域用の補正テーブルを使用する。輝度レンジが所定値以上の場合には、Rsの値にしたがって補正量を変更する。補正量の変更は、被写体用補正を行った場合の結果と背景領域用補正を行った結果をRsで内積演算を行うような方法を用いることができる。   Here, continuous conversion is necessary so that a pseudo contour does not occur at the boundary between the subject region and the background region. Therefore, a correction table is created with reference to surrounding N × N pixels centered on the target pixel. First, the ratio Rs between the subject area and the background area in N × N pixels is obtained. Next, the luminance range in N × N pixels is obtained. When the luminance range is small, a correction table for the subject area is used for the subject area, and a correction table for the background area is used for the background area. When the luminance range is greater than or equal to a predetermined value, the correction amount is changed according to the value of Rs. The correction amount can be changed by using a method in which an inner product operation is performed using Rs for the result of subject correction and the result of background region correction.

レンジ補正テーブルが作成されると、次にステップS17でレンジ補正を行う。例えば、図8のレンジ補正テーブルが設定された場合、scRGB画像データが(inr,ing,inb)とすると、仮に最大値がinYで、それをoutYに変換することになる。最大値がG成分とすれば、ing=inYなので、
inr’=inr−4096
ing’=ing−4096
inb’=inb−4096
outr=inr’×(outY−4096)/(inY−4096)+4096
outg=outY
outb=inb’×(outY−4096)/(inY−4096)+4096
とし、変換前後で色みが変わらないようにする。そして、前述したscRGB信号からe−sRGB信号への非線形変換式を用いて、e−sRGB信号に変換を行う。
Once the range correction table is created, range correction is performed in step S17. For example, when the range correction table of FIG. 8 is set, if the scRGB image data is (inr, ing, inb), the maximum value is inY and it is converted to outY. If the maximum value is G component, ing = inY,
inr ′ = inr−4096
ing '= ing-4096
inb ′ = inb−4096
outr = inr ′ × (outY−4096) / (inY−4096) +4096
outg = outY
outb = inb ′ × (outY−4096) / (inY−4096) +4096
The color is not changed before and after conversion. Then, the conversion to the e-sRGB signal is performed using the above-described nonlinear conversion formula from the scRGB signal to the e-sRGB signal.

4.3 色補正部102
次に、レンジ圧縮部101で変換された画像データを色補正部102でプリンタ信号に変換する。色補正部102では、レンジ圧縮部によってe−sRGB空間に圧縮された色信号を、三次元ルックアップテーブルを用いた補間演算を行ってプリンタ色信号に変換する。e−sRGB空間は、プリンタ色空間を包含しており、かつダイナミックレンジもハードコピーより広い。即ち、e−sRGB空間のダイナミックレンジは、おおよそ−0.5〜1.67あるが、ハードコピーは0.01〜0.8程度である。そのため、e−sRGB⇒CMYK変換用の三次元ルックアップテーブルにおいて、ダイナミックレンジも含めた色域圧縮を行うようにテーブルを作成する。以下に、三次元ルックアップテーブルの作成方法を図12を用いて説明する。
4.3 Color Correction Unit 102
Next, the color correction unit 102 converts the image data converted by the range compression unit 101 into a printer signal. The color correction unit 102 converts the color signal compressed into the e-sRGB space by the range compression unit into a printer color signal by performing an interpolation operation using a three-dimensional lookup table. The e-sRGB space includes a printer color space and has a wider dynamic range than a hard copy. That is, the dynamic range of the e-sRGB space is about -0.5 to 1.67, but the hard copy is about 0.01 to 0.8. Therefore, in the three-dimensional lookup table for e-sRGB → CMYK conversion, a table is created so as to perform color gamut compression including the dynamic range. A method for creating a three-dimensional lookup table will be described below with reference to FIG.

まず、ステップS21において、式(3)〜式(5)に従って、e−sRGB信号をXYZ三刺激値に変換する。次に、ステップS22でXYZ三刺激値をCIECAM02空間の明度J,彩度C(又は、M)、色相hに変換する。XYZ⇒JCh変換の具体的な計算手順については、非特許文献2などに記載されているので、ここでは説明は省略する。   First, in step S21, the e-sRGB signal is converted into XYZ tristimulus values according to equations (3) to (5). Next, in step S22, the XYZ tristimulus values are converted into lightness J, saturation C (or M), and hue h in the CIECAM02 space. The specific calculation procedure of the XYZ⇒JCh conversion is described in Non-Patent Document 2 and the like, and thus the description thereof is omitted here.

次に、ステップS23へ移り、ステップS22で計算したJCh信号を出力デバイスが出力可能な色再現範囲内のJ’C’h’信号に変換するためのガマット・マッピング処理を行う。ガマット・マッピング処理の手順としては、まず明度圧縮を行ってから、出力デバイスの色再現範囲内になるように彩度圧縮を行う。ここで、ステップS22で求められた明度Jが基準白色(J=100)を超える場合には、明度の線形変換により、入力明度を出力明度のレンジに圧縮を行う。彩度圧縮は、例えば出力デバイスの再現域内か外かを判定し、外側の場合には出力デバイスの再現可能な色信号のうち色差が最小となる色にマッピングを行う。また、色差最小でのマッピング方式に限らず、階調を保存して圧縮するなど様々な方式を用いることができる。   Next, the process proceeds to step S23, and gamut mapping processing for converting the JCh signal calculated in step S22 into a J'C'h 'signal within the color reproduction range that can be output by the output device is performed. As a procedure of gamut mapping processing, first, lightness compression is performed, and then saturation compression is performed so that it falls within the color reproduction range of the output device. Here, when the brightness J obtained in step S22 exceeds the reference white color (J = 100), the input brightness is compressed to the output brightness range by linear conversion of the brightness. In the saturation compression, for example, it is determined whether the output device is within or outside the reproduction range, and if it is outside, mapping is performed to the color having the smallest color difference among the color signals that can be reproduced by the output device. Further, the mapping method is not limited to the minimum color difference, and various methods such as storing and compressing gradation can be used.

ステップS23のガマット・マッピング処理によって、出力デバイスの色再現範囲内のCIECAM02信号に変換し、次いでステップS24でCAM逆変換を行う。CAMの逆変換の変換式は、前掲した非特許文献2に記載されているので省略する。但し、逆変換時に用いるアピアランス・パラメータには、出力デバイスの観察条件に適したパラメータを用いる。例えば、プリンタ信号に変換する場合には、以下のようなアピアランス・パラメータを使用する。   By the gamut mapping process in step S23, the signal is converted into a CIECAM02 signal within the color reproduction range of the output device, and then in step S24, CAM inverse conversion is performed. The conversion formula of the inverse conversion of CAM is described in Non-Patent Document 2 described above, and will be omitted. However, parameters suitable for the viewing conditions of the output device are used as appearance parameters used at the time of inverse transformation. For example, when converting to a printer signal, the following appearance parameters are used.

順応輝度La=64
基準白色点 Xw,Yw,Zw:紙白の三刺激値
背景領域の相対輝度 Yb:20%
周囲条件 average
最後に、ステップ25でXYZをCMYに変換する。
Adaptation luminance La = 64
Reference white point Xw, Yw, Zw: Tristimulus value of paper white Relative luminance of background area Yb: 20%
Ambient condition average
Finally, in step 25, XYZ is converted to CMY.

また、上記の説明では、出力デバイスとしてプリンタの場合を例にしたが、色補正部を置き換えることで、モニタ用のsRGB信号への変換にも容易に対応できる。   In the above description, a printer is used as an example of the output device, but conversion to an sRGB signal for monitoring can be easily handled by replacing the color correction unit.

実施例2:
図12は、本発明をソフトウェアで実現する場合のシステム構成例を示す。この画像処理システムは、ワークステーション等のコンピュータ300とプリンタ302とディスプレイ301が接続されている。ワークステーション(コンピュータ300)は、前記した画像処理方法の機能を実現するもので、ディスプレイ301、キーボード309、プログラム読取装置310および演算処理装置などで構成されている。演算処理装置は、種々のコマンドを実行可能なCPU303に、ROM305、RAM304がバスで接続されている。また、バスには大容量記憶装置であるハードディスク等のDISK306と、ネットワーク上の機器と通信を行なうNIC307が接続されている。
Example 2:
FIG. 12 shows a system configuration example when the present invention is realized by software. In this image processing system, a computer 300 such as a workstation, a printer 302, and a display 301 are connected. The workstation (computer 300) realizes the functions of the image processing method described above, and includes a display 301, a keyboard 309, a program reading device 310, an arithmetic processing device, and the like. In the arithmetic processing unit, a ROM 305 and a RAM 304 are connected to a CPU 303 capable of executing various commands via a bus. Further, a DISK 306 such as a hard disk, which is a large-capacity storage device, and a NIC 307 that communicates with devices on the network are connected to the bus.

プログラム読取装置310は、各種のプログラムコードを記憶した記憶媒体、すなわち、フロッピーディスク、ハードディスク、光ディスク(CD−ROM,CD−R,CD−R/W,DVD−ROM,DVD−RAMなど)、光磁気ディスク、メモリカードなどに記憶されているプログラムコードを読み取る装置で、例えば、フロッピーディスクドライブ、光ディスクドライブ、光磁気ディスクドライブなどである。   The program reading device 310 is a storage medium storing various program codes, that is, a floppy disk, a hard disk, an optical disk (CD-ROM, CD-R, CD-R / W, DVD-ROM, DVD-RAM, etc.), optical An apparatus for reading a program code stored in a magnetic disk, a memory card, or the like, such as a floppy disk drive, an optical disk drive, or a magneto-optical disk drive.

記憶媒体に記憶されているプログラムコードは、プログラム読取装置で読み取ってDISK306などに格納され、このDISK306などに格納されたプログラムコードをCPU303によって実行することにより、前記した画像処理方法の機能などを実現することができるようになる。また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)やデバイス・ドライバなどが実際の処理の一部または全部を行い、その処理によって前記した機能が達成される場合も含まれる。   The program code stored in the storage medium is read by the program reader and stored in the DISK 306 and the like, and the program code stored in the DISK 306 and the like is executed by the CPU 303, thereby realizing the functions of the image processing method described above. Will be able to. In addition, by executing the program code read by the computer, an OS (operating system) or a device driver running on the computer performs part or all of the actual processing based on the instruction of the program code. The case where the above-described function is achieved by the processing is also included.

本発明の画像処理装置の構成を示す。1 shows a configuration of an image processing apparatus of the present invention. 逆光シーンと輝度ヒストグラムの例を示す。The example of a backlight scene and a brightness | luminance histogram is shown. 画像処理システムの構成例を示す。1 shows a configuration example of an image processing system. 色空間の関係図を示す。The relationship diagram of color space is shown. 各色空間のレンジを示す。Indicates the range of each color space. 色分布解析方法のフローチャートを示す。The flowchart of a color distribution analysis method is shown. レンジ補正処理のフローチャートを示す。The flowchart of a range correction process is shown. レンジ補正テーブルの例を示す。An example of a range correction table is shown. sc−RGB信号とe−sRGB信号の変換特性を示す。The conversion characteristic of sc-RGB signal and e-sRGB signal is shown. 背景/被写体分離結果の例を示す。An example of the background / subject separation result is shown. レンジ補正の例を示す。An example of range correction is shown. 色補正パラメータの作成方法のフローチャートを示す。The flowchart of the preparation method of a color correction parameter is shown. 本発明をソフトウェアで実現する場合のシステム構成例を示す。An example of a system configuration when the present invention is implemented by software is shown.

符号の説明Explanation of symbols

101 レンジ圧縮部
102 色補正部
103 画像解析部
101 range compression unit 102 color correction unit 103 image analysis unit

Claims (10)

シーン参照色空間上の入力色信号を、出力デバイス用の色信号に変換する画像処理方法であって、前記入力色信号の色分布を解析し、前記解析結果に基づいて階調圧縮条件を決定し、前記階調圧縮条件に従って前記入力色信号をシーン参照色空間よりも狭く、かつ出力デバイスの色再現範囲を包含する拡張色空間に写像し、前記拡張色空間に写像された色信号を出力デバイス用の色信号に色変換することを特徴とする画像処理方法。   An image processing method for converting an input color signal in a scene reference color space into a color signal for an output device, analyzing a color distribution of the input color signal, and determining a gradation compression condition based on the analysis result According to the gradation compression condition, the input color signal is mapped to an extended color space that is narrower than the scene reference color space and includes the color reproduction range of the output device, and the color signal mapped to the extended color space is output. An image processing method comprising color-converting to a color signal for a device. 前記拡張色空間として、シーン参照色空間で表される色信号から1次元ルックアップテーブルを用いて変換可能な色空間を用いることを特徴とする請求項1記載の画像処理方法。   The image processing method according to claim 1, wherein a color space that can be converted from a color signal expressed in a scene reference color space using a one-dimensional lookup table is used as the extended color space. 前記色分布の解析において、少なくとも被写体領域の輝度及び入力色信号の輝度レンジを抽出することを特徴とする請求項1記載の画像処理方法。   2. The image processing method according to claim 1, wherein, in the color distribution analysis, at least a luminance of a subject region and a luminance range of an input color signal are extracted. 前記色分布の解析の結果、前記入力色信号が人物領域を含まない場合は、前記入力色信号の輝度レンジを参照して線形な輝度変換を行うことにより前記入力色信号のダイナミックレンジを圧縮し、前記圧縮された色信号の各成分値に対して、非線形変換を行って拡張色空間上の色信号に変換することを特徴とする請求項1記載の画像処理方法。   As a result of the color distribution analysis, when the input color signal does not include a person region, the dynamic range of the input color signal is compressed by performing linear luminance conversion with reference to the luminance range of the input color signal. 2. The image processing method according to claim 1, wherein each component value of the compressed color signal is converted into a color signal in an extended color space by performing nonlinear conversion. 前記色分布の解析の結果、前記入力色信号が人物領域を含む場合は、前記人物領域の輝度平均値と前記入力色信号の最大輝度値との比に基づいて前記人物領域の輝度が適正か否かを判定し、適正と判定された場合は、前記入力色信号の輝度レンジを参照して線形な輝度変換を行うことにより前記入力色信号のダイナミックレンジを圧縮し、前記圧縮された色信号の各成分値に対して、非線形変換を行って拡張色空間上の色信号に変換することを特徴とする請求項1記載の画像処理方法。   As a result of the color distribution analysis, if the input color signal includes a person area, whether the brightness of the person area is appropriate based on the ratio between the average brightness value of the person area and the maximum brightness value of the input color signal If it is determined as appropriate, the dynamic range of the input color signal is compressed by performing linear luminance conversion with reference to the luminance range of the input color signal, and the compressed color signal 2. The image processing method according to claim 1, wherein each of the component values is converted into a color signal in an extended color space by performing nonlinear conversion. 前記色分布の解析の結果、前記入力色信号が人物領域を含む場合は、前記人物領域の輝度平均値と前記入力色信号の最大輝度値との比に基づいて前記人物領域の輝度が適正か否かを判定し、適正と判定されない場合は、被写体領域と非被写体領域を分離し、該分離結果を参照して、画素ごとに異なるダイナミックレンジの圧縮処理を行うことを特徴とする請求項1記載の画像処理方法。   As a result of the color distribution analysis, if the input color signal includes a person area, whether the brightness of the person area is appropriate based on the ratio between the average brightness value of the person area and the maximum brightness value of the input color signal The subject region and the non-subject region are separated if the judgment is not appropriate, and a compression process with a different dynamic range is performed for each pixel with reference to the separation result. The image processing method as described. 前記ダイナミックレンジの圧縮処理は、注目画素近傍の輝度分布特性及び注目画素の属性を用いて、変換特性を設定することを特徴とする請求項6記載の画像処理方法。   The image processing method according to claim 6, wherein in the dynamic range compression processing, conversion characteristics are set using a luminance distribution characteristic in the vicinity of the target pixel and an attribute of the target pixel. シーン参照色空間上の入力色信号を、出力デバイス用の色信号に変換する画像処理装置であって、前記入力色信号の色分布を解析する手段と、前記解析結果に基づいて階調圧縮条件を決定する手段と、前記階調圧縮条件に従って前記入力色信号をシーン参照色空間よりも狭く、かつ出力デバイスの色再現範囲を包含する拡張色空間に写像する手段と、前記拡張色空間に写像された色信号を出力デバイス用の色信号に変換する色変換手段とを具備することを特徴とする画像処理装置。   An image processing apparatus for converting an input color signal in a scene reference color space into a color signal for an output device, a means for analyzing a color distribution of the input color signal, and a gradation compression condition based on the analysis result And a means for mapping the input color signal to an extended color space that is narrower than a scene reference color space and includes a color reproduction range of an output device according to the gradation compression condition, and mapping to the extended color space An image processing apparatus comprising: a color conversion unit that converts the color signal into a color signal for an output device. 請求項1乃至7のいずれか1項に記載の画像処理方法をコンピュータに実現させるためのプログラム。   A program for causing a computer to implement the image processing method according to any one of claims 1 to 7. 請求項1乃至7のいずれか1項に記載の画像処理方法をコンピュータに実現させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium recording a program for causing a computer to implement the image processing method according to claim 1.
JP2006250368A 2006-09-15 2006-09-15 Image processing method, image processing apparatus, program, and recording medium Expired - Fee Related JP4730837B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006250368A JP4730837B2 (en) 2006-09-15 2006-09-15 Image processing method, image processing apparatus, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006250368A JP4730837B2 (en) 2006-09-15 2006-09-15 Image processing method, image processing apparatus, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2008072551A true JP2008072551A (en) 2008-03-27
JP4730837B2 JP4730837B2 (en) 2011-07-20

Family

ID=39293719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006250368A Expired - Fee Related JP4730837B2 (en) 2006-09-15 2006-09-15 Image processing method, image processing apparatus, program, and recording medium

Country Status (1)

Country Link
JP (1) JP4730837B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010039886A (en) * 2008-08-07 2010-02-18 Hoya Corp Image processing unit, imaging apparatus, and composite image generation program
JP2010081048A (en) * 2008-09-24 2010-04-08 Nikon Corp Image processing apparatus, program, and imaging apparatus
JP2013013060A (en) * 2011-06-28 2013-01-17 Konica Minolta Laboratory Usa Inc Method for processing high dynamic range image using tone mapping to extended rgb space
WO2018092711A1 (en) * 2016-11-17 2018-05-24 パナソニックIpマネジメント株式会社 Image processing device, image processing method, and program
JPWO2018092711A1 (en) * 2016-11-17 2019-10-17 パナソニックIpマネジメント株式会社 Image processing apparatus, image processing method, and program
JP2020074501A (en) * 2018-06-29 2020-05-14 キヤノン株式会社 Image processing apparatus, image processing method, and program
CN113362245A (en) * 2021-06-04 2021-09-07 北京集创北方科技股份有限公司 Data processing method and device, driving chip and display device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003153297A (en) * 2001-11-08 2003-05-23 Sony Corp Image information transfer method and image information processor
JP2004120217A (en) * 2002-08-30 2004-04-15 Canon Inc Image processing apparatus, image processing method, program, and recording medium
JP2005051407A (en) * 2003-07-31 2005-02-24 Canon Inc Image processing method and device
JP2006094117A (en) * 2004-09-24 2006-04-06 Fuji Xerox Co Ltd Image processing apparatus, processing method and program
JP2006099167A (en) * 2004-09-28 2006-04-13 Fuji Xerox Co Ltd Image processor suitable for reproducing face region, image formation apparatus, image processing method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003153297A (en) * 2001-11-08 2003-05-23 Sony Corp Image information transfer method and image information processor
JP2004120217A (en) * 2002-08-30 2004-04-15 Canon Inc Image processing apparatus, image processing method, program, and recording medium
JP2005051407A (en) * 2003-07-31 2005-02-24 Canon Inc Image processing method and device
JP2006094117A (en) * 2004-09-24 2006-04-06 Fuji Xerox Co Ltd Image processing apparatus, processing method and program
JP2006099167A (en) * 2004-09-28 2006-04-13 Fuji Xerox Co Ltd Image processor suitable for reproducing face region, image formation apparatus, image processing method and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010039886A (en) * 2008-08-07 2010-02-18 Hoya Corp Image processing unit, imaging apparatus, and composite image generation program
JP2010081048A (en) * 2008-09-24 2010-04-08 Nikon Corp Image processing apparatus, program, and imaging apparatus
JP2013013060A (en) * 2011-06-28 2013-01-17 Konica Minolta Laboratory Usa Inc Method for processing high dynamic range image using tone mapping to extended rgb space
WO2018092711A1 (en) * 2016-11-17 2018-05-24 パナソニックIpマネジメント株式会社 Image processing device, image processing method, and program
JPWO2018092711A1 (en) * 2016-11-17 2019-10-17 パナソニックIpマネジメント株式会社 Image processing apparatus, image processing method, and program
JP2020074501A (en) * 2018-06-29 2020-05-14 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP7105737B2 (en) 2018-06-29 2022-07-25 キヤノン株式会社 Image processing device, image processing method, and program
CN113362245A (en) * 2021-06-04 2021-09-07 北京集创北方科技股份有限公司 Data processing method and device, driving chip and display device

Also Published As

Publication number Publication date
JP4730837B2 (en) 2011-07-20

Similar Documents

Publication Publication Date Title
JP4424216B2 (en) Image processing apparatus, image processing method, and image processing program
US8624917B2 (en) Image input unit and image input method
US7932930B2 (en) Brightness correction for image
EP1558019A2 (en) Image-processing apparatus, image-capturing apparatus, image-processing method and image-processing program
US8665348B2 (en) Image processing apparatus and method using forward and inverse local adaptation processing and dynamic range processing
JP2004192614A (en) Image processing device, image processing method, program and recording medium
JP7117915B2 (en) Image processing device, control method, and program
JP4687673B2 (en) Monotone processing of color image
JP2005210526A (en) Image processing apparatus, method, and program, image pickup device, and image data outputting method and program
JP4730837B2 (en) Image processing method, image processing apparatus, program, and recording medium
JP2005210495A (en) Image processing apparatus, method, and program
US8345967B2 (en) Apparatus and method of processing image, and record medium for the method
JP2005354372A (en) Apparatus and method for image recording device, method and system for image processing
JP4001079B2 (en) Monotone processing of color image
US20100054589A1 (en) Color processing apparatus and method thereof
JP2014033273A (en) Color gamut conversion device, digital camera, color gamut conversion program, and color gamut conversion method
JP5156423B2 (en) Color processing apparatus and color processing method
WO2009093294A1 (en) Image signal processing device and image signal processing program
JP4150490B2 (en) Image processing system, image processing method, and recording medium
WO2005027532A1 (en) Image processing device and image processing method
JP2020145553A (en) Image processing apparatus, image processing method and program
JP4533277B2 (en) Image processing apparatus, image processing method, and table creation method
JP2014033274A (en) Color gamut conversion device, digital camera, color gamut conversion program, and color gamut conversion method
JP2004222078A (en) Image processor, image processing method, and program thereof
JP2006238335A (en) Information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101215

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110413

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110414

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees