JP4831020B2 - Image processing apparatus, image processing method, and image processing program - Google Patents
Image processing apparatus, image processing method, and image processing program Download PDFInfo
- Publication number
- JP4831020B2 JP4831020B2 JP2007226587A JP2007226587A JP4831020B2 JP 4831020 B2 JP4831020 B2 JP 4831020B2 JP 2007226587 A JP2007226587 A JP 2007226587A JP 2007226587 A JP2007226587 A JP 2007226587A JP 4831020 B2 JP4831020 B2 JP 4831020B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- representative value
- feature
- value
- hue
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Description
本発明は、容易な操作で画像補正をすることが可能な画像処理装置等に関する。 The present invention relates to an image processing apparatus capable of correcting an image with an easy operation.
デジタルカメラ等の普及に伴い、個人で撮影した画像を家庭用印刷装置で印刷することが普及している。また、印刷媒体に記憶された画像を家庭用印刷装置で印刷(複写)することも普及している。このような場合、取得した画像が所望の色味や色調でない場合は、印刷前に当該画像の画像補正をすることが望まれている。 With the popularization of digital cameras and the like, it has become popular to print images taken by individuals using a home printing device. In addition, printing (copying) an image stored on a print medium with a home printing apparatus is also widespread. In such a case, if the acquired image does not have a desired color or tone, it is desired to correct the image before printing.
ここで、例えば、下記特許文献1には、画像調整することが可能な印刷装置が開示されている。この印刷装置では、取得した画像の画質を調整するために、調整用データを入力する必要がある。 Here, for example, Patent Document 1 below discloses a printing apparatus capable of image adjustment. In this printing apparatus, it is necessary to input adjustment data in order to adjust the image quality of the acquired image.
上記のような印刷装置においては、画像の調整を行うために、具体的なデータを入力する必要があるため、画像に関する知識が必要となり感覚的な色調整を行うことができない。また、上記文献においては、調整用データを選択ないし設定する必要があるため、簡易な操作ではない。さらに、調整用データを利用したとしても、どのような画像処理が施されるのかを画像補正前に予測することは困難である。 In the printing apparatus as described above, it is necessary to input specific data in order to adjust the image, so knowledge about the image is required, and sensory color adjustment cannot be performed. Further, in the above document, since it is necessary to select or set adjustment data, it is not a simple operation. Furthermore, even if adjustment data is used, it is difficult to predict what image processing will be performed before image correction.
そこで本発明は、上記課題を解決するため、どのような画像補正が施されるかについて画像補正前に予測可能であり、かつ、感覚的に所望の画像補正可能な画像処理装置を提供することを目的とする。 Accordingly, in order to solve the above-described problems, the present invention provides an image processing apparatus that can predict what image correction is to be performed before image correction and can sensuously desired image correction. With the goal.
上記目的を達成するため、請求項1に係る発明は、特徴量記憶手段、画像取得手段、画像記憶手段、特徴量抽出手段、画像補正手段、表示手段を備える画像処理装置において、前記特徴量記憶手段は、1又は複数種類の第1画像から抽出された1又は複数種類の第1特徴量であって、前記第1画像の色合いに関する第1の代表値であり、色情報に基づいて分割される領域ごとに特定される前記第1の代表値を含む前記第1特徴量を記憶し、前記画像取得手段は、第2画像を取得し、前記画像記憶手段は、第3画像を記憶し、前記特徴量抽出手段は、前記第2画像に基いて、前記第2画像の色合いに関する第2の代表値であり、前記領域ごとに特定される前記第2の代表値を含む第2特徴量を抽出し、前記画像補正手段は、前記特徴量記憶手段に記憶された前記第1特徴量及び前記第3画像から抽出された第3特徴量であって、前記第3画像の色合いに関する第3の代表値であり、前記領域ごとに特定される前記第3の代表値を含む前記第3特徴量に基いて、前記第3代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第3代表値以外の値については、補間することにより、前記第3画像を画像補正し、前記表示手段は、前記画像補正された第3画像を表示し、前記画像補正手段は、ユーザによる所定の入力に応じて、1つの画像補正された第3画像を特定し、当該特定された第3画像の画像補正に用いられた前記第1特徴量及び前記第2特徴量に基いて、前記第2代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第2代表値以外の値については、補間することにより、前記第2画像を画像補正することを特徴とする。なお、第3特徴量は、第3画像を補正する度に特徴量抽出手段により第3画像から抽出してもよいし、予め第3画像から抽出しておき、特徴量記憶手段に記憶されていてもよい。 In order to achieve the above object, an invention according to claim 1 is directed to an image processing apparatus including a feature amount storage unit, an image acquisition unit, an image storage unit, a feature amount extraction unit, an image correction unit, and a display unit. The means is one or more types of first feature values extracted from one or more types of first images, is a first representative value relating to the hue of the first image, and is divided based on color information. Storing the first feature amount including the first representative value specified for each region , the image acquisition unit acquires a second image, the image storage unit stores a third image, The feature quantity extraction means is a second representative value that is a second representative value related to the hue of the second image based on the second image and includes the second representative value specified for each region. The image correction unit extracts the feature amount storage unit; A third feature quantity extracted from the stored first characteristic amount and the third image, a third representative values regarding hue of the third image, the third specified for each of the regions Based on the third feature value including the representative value , the third representative value is corrected to the first representative value specified for the same region, and values other than the third representative value are corrected. The third image is corrected by interpolation , the display means displays the third image that has been corrected, and the image correction means is configured to display one image according to a predetermined input by the user. The corrected third image is identified, and the second representative value is the same as the second representative value based on the first feature amount and the second feature amount used for image correction of the identified third image. Correction to the first representative value specified for the region For values other than the second representative value, by interpolation, characterized by an image correcting the second image. The third feature amount may be extracted from the third image by the feature amount extraction unit every time the third image is corrected, or is extracted from the third image in advance and stored in the feature amount storage unit. May be.
請求項2に係る発明は、請求項1の画像処理装置において、前記表示手段は、前記第3画像とともに、前記画像補正された第3画像を表示することを特徴とする。 According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the display means displays the third image that has been subjected to the image correction together with the third image.
請求項3に係る発明は、特徴量記憶手段、画像取得手段、特徴量抽出手段、画像生成手段、表示手段、特徴量選択手段、画像補正手段を備える画像処理装置において、前記特徴量記憶手段は、1又は複数種類の第1画像から抽出された1又は複数種類の第1特徴量であって、前記第1画像の色合いに関する第1の代表値であり、色情報に基づいて分割される領域ごとに特定される前記第1の代表値を含む前記第1特徴量を記憶し、前記画像取得手段は、第2画像を取得し、前記特徴量抽出手段は、前記第2画像に基いて、前記第2画像の色合いに関する第2の代表値であり、前記領域ごとに特定される前記第2の代表値を含む第2特徴量を抽出し、前記画像生成手段は、前記第1特徴量に基いて、複数個の色領域を含む第3画像であって、前記色領域それぞれは、前記第1特徴量に含まれる前記第1の代表値によって決定される単色を示す前記第3画像を生成し、前記表示手段は、前記第3画像を表示し、前記特徴量選択手段は、ユーザによって選択された第3画像の作成に用いられた前記第1特徴量を選択し、前記画像補正手段は、前記選択された第1特徴量及び前記第2特徴量に基いて、前記第2代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第2代表値以外の値については、補間することにより、前記第2画像を画像補正することを特徴とする。 The invention according to claim 3 is an image processing apparatus comprising a feature quantity storage means, an image acquisition means, a feature quantity extraction means, an image generation means, a display means, a feature quantity selection means, and an image correction means, wherein the feature quantity storage means An area that is one or more types of first feature values extracted from one or more types of first images, is a first representative value related to the hue of the first image, and is divided based on color information Storing the first feature value including the first representative value specified for each, the image acquiring means acquiring a second image, and the feature value extracting means based on the second image ; A second feature value that is a second representative value relating to the hue of the second image and that includes the second representative value specified for each region is extracted, and the image generation means includes the first feature value. based in, a third image including a plurality of color regions, before Each color area, to generate the third image of a single color that is determined by said first representative value included in the first feature amount, wherein the display unit displays the third image, the feature quantity The selecting means selects the first feature amount used for creating the third image selected by the user, and the image correcting means is based on the selected first feature amount and the second feature amount. The second representative value is corrected to the first representative value specified for the same region, and the second image is corrected by interpolating values other than the second representative value. It is characterized by doing.
請求項4に係る発明は、請求項3の画像処理装置において、前記第1画像から色相に関する特徴量が抽出され、当該色相に関する特徴量に基いて前記第1画像を複数の領域に分割し、当該分割した領域ごとに、色相以外に関する特徴量が抽出され、当該分割した領域ごとに、色相以外に関する特徴量の代表値が抽出され、前記第1特徴量は、前記色相に関する特徴量の代表値及び前記色相以外に関する特徴量の代表値であり、前記画像生成手段は、前記第1特徴量に基いて表示色を決定し、前記複数の領域の分割数と同じ個数の表示色からなる画像を生成することを特徴とする。 According to a fourth aspect of the present invention, in the image processing apparatus of the third aspect, a feature amount related to a hue is extracted from the first image, and the first image is divided into a plurality of regions based on the feature amount related to the hue. For each of the divided areas, a feature value related to other than the hue is extracted, and for each divided area, a representative value of the feature value related to other than the hue is extracted, and the first feature value is a representative value of the feature value related to the hue And a representative value of the feature amount related to other than the hue, the image generation means determines a display color based on the first feature amount, and displays an image having the same number of display colors as the number of divisions of the plurality of regions. It is characterized by generating.
請求項5に係る発明は、請求項4の画像処理装置において、色相ごとに、当該色相の領域が前記色相に関する特徴量には、当該特徴量の基となった前記第1画像全体に占める領域の割合が含まれ、前記第3画像を構成する表示色の面積の割合は、前記第1画像全体に占める割合と同一であることを特徴とする。 According to a fifth aspect of the present invention, in the image processing apparatus according to the fourth aspect, for each hue, a region of the hue includes a region that occupies the entire first image that is a basis of the feature amount. The ratio of the area of the display color constituting the third image is the same as the ratio of the entire first image.
請求項6に係る発明は、請求項4または5の画像処理装置において、前記色相以外に関する特徴量は、明度及び/または彩度に関する特徴量であることを特徴とする。 According to a sixth aspect of the present invention, in the image processing apparatus according to the fourth or fifth aspect, the feature amount related to other than the hue is a feature amount related to lightness and / or saturation.
請求項7に係る発明は、請求項5または6の画像処理装置において、前記第1画像全体に占める領域の割合が所定量以下の領域に対応する表示色、及び、前記第2画像全体に占める領域の割合が所定量以下の領域に対応する表示色については、表示対象から除外することを特徴とする。 The invention according to claim 7 is the image processing apparatus according to claim 5 or 6, wherein the display color corresponding to an area in which the ratio of the area to the entire first image is equal to or less than a predetermined amount and the entire second image is occupied. A display color corresponding to an area whose area ratio is a predetermined amount or less is excluded from the display target.
請求項8に係る発明は、請求項1〜7の画像処理装置において、前記第1特徴量及び前記第2特徴量に基づいて、補正データを作成する補正データ作成手段を備え、前記画像補正手段は、前記補正データに基づいて前記第2画像を画像補正することを特徴とする。 The invention according to claim 8 is the image processing apparatus according to any one of claims 1 to 7, further comprising correction data generating means for generating correction data based on the first feature quantity and the second feature quantity. Is characterized in that the second image is corrected based on the correction data.
請求項9に係る発明は、請求項1〜8の画像処理装置において、補正データ作成手段、をさらに有し、前記補正データ作成手段は、前記第1画像を分割した領域ごとに、前記色相に関する特徴量の代表値、及び、前記色相以外に関する特徴量を抽出し、前記第2画像を分割した領域ごとに、前記色相に関する特徴量の代表値、及び前記色相以外に関する特徴量を抽出し、前記第1画像の色相に関する特徴量の代表値及び前記第2画像の色相に関する特徴量の代表値に基いて色相補正データを作成し、前記画像補正手段は、前記第2画像の画素ごとの色相に関する特徴量を、前記色相補正データに基いて補正し、前記第2画像の画素ごとの色相以外に関する特徴量を、前記領域ごとの代表値に基いて補正することを特徴とする。 The invention according to claim 9 is the image processing apparatus according to any one of claims 1 to 8, further comprising correction data creating means, wherein the correction data creating means relates to the hue for each region obtained by dividing the first image. Extracting a representative value of a feature value and a feature value related to other than the hue, extracting a representative value of the feature value related to the hue and a feature value related to other than the hue for each region obtained by dividing the second image, Hue correction data is created based on the representative value of the feature quantity related to the hue of the first image and the representative value of the feature quantity related to the hue of the second image, and the image correction means relates to the hue of each pixel of the second image. A feature amount is corrected based on the hue correction data, and a feature amount related to other than the hue for each pixel of the second image is corrected based on a representative value for each region.
請求項10に係る発明は、請求項1〜9の画像処理装置において、印刷制御手段をさらに有し、前記印刷制御手段は、前記画像補正された第2画像を印刷するための処理を行うことを特徴とする。 A tenth aspect of the present invention is the image processing apparatus according to any one of the first to ninth aspects, further comprising a print control unit, wherein the print control unit performs a process for printing the image-corrected second image. It is characterized by.
請求項11に係る発明は、請求項4〜10の画像処理装置において、前記色相に関する特徴量は、HSV空間におけるH値に基いて算出されることを特徴とする。 According to an eleventh aspect of the present invention, in the image processing apparatus according to any one of the fourth to tenth aspects, the feature value related to the hue is calculated based on an H value in the HSV space.
請求項12に係る発明は、画像処理方法において、特徴量記憶手段に記憶された第1特徴量であって、第1画像の色合いに関する第1の代表値であり、色情報に基づいて分割される領域ごとに特定される前記第1の代表値を含む前記第1特徴量、及び、画像記憶手段に記憶されている第3画像から抽出された第3特徴量であって、前記第3画像の色合いに関する第3の代表値であり、前記領域ごとに特定される前記第3の代表値を含む前記第3特徴量に基いて、前記第3代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第3代表値以外の値については、補間することにより、前記第3画像を補正する第3画像補正ステップ、第2画像を取得する画像取得ステップ、前記第2画像に基いて、前記第2画像の色合いに関する第2の代表値であり、前記領域ごとに特定される前記第2の代表値を含む第2特徴量を抽出する特徴量抽出ステップ、前記補正された第3画像を表示する表示ステップ、ユーザによる所定の入力に応じて、1つの画像補正された第3画像を特定し、当該特定された第3画像の画像補正に用いられた前記第1特徴量及び前記第2特徴量に基いて、前記第2代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第2代表値以外の値については、補間することにより、前記第2画像を画像補正する第2画像ステップからなることを特徴とする。 According to a twelfth aspect of the present invention, in the image processing method, the first feature amount stored in the feature amount storage means is a first representative value relating to the hue of the first image, and is divided based on the color information. The first feature value including the first representative value specified for each region and a third feature value extracted from the third image stored in the image storage means, the third image Based on the third feature value including the third representative value specified for each region, the third representative value is specified for the same region. A third image correcting step for correcting the third image by interpolating the values other than the third representative value, and an image acquiring step for acquiring the second image. based on the second image, the second image A second representative values for hue, display step of displaying the third image that are characteristic amount extraction step, before Symbol correction for extracting second feature amount including the second representative values specified for each of the regions In response to a predetermined input by the user, one image-corrected third image is specified, and based on the first feature value and the second feature value used for image correction of the specified third image. The second representative value is corrected to the first representative value specified for the same region, and values other than the second representative value are interpolated to interpolate the second image. It comprises a second image step to be corrected.
請求項13に係る発明は、画像処理方法において、特徴量記憶手段に記憶されている第1特徴量であって、第1画像の色合いに関する第1の代表値であり、色情報に基づいて分割される領域ごとに特定される前記第1の代表値を含む前記第1特徴量に基いて、複数個の色領域を含む第3画像であって、前記色領域それぞれは、前記第1特徴量に含まれる前記第1の代表値によって決定される単色を示す前記第3画像を生成する画像生成ステップ、第2画像を取得する画像取得ステップ、前記第2画像に基いて、前記第2画像の色合いに関する第2の代表値であり、前記領域ごとに特定される前記第2の代表値を含む第2特徴量を抽出する特徴量抽出ステップ、前記第3画像を表示する表示ステップ、ユーザによって選択された第3画像の作成に用いられた前記第1特徴量を選択する特徴量選択ステップ、前記選択された第1特徴量及び前記第2特徴量に基いて、前記第2代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第2代表値以外の値については、補間することにより、前記第2画像を画像補正する画像補正ステップからなることを特徴とする。 According to a thirteenth aspect of the present invention, in the image processing method, the first feature amount stored in the feature amount storage means is a first representative value relating to the hue of the first image, and is divided based on the color information. A third image including a plurality of color regions based on the first feature amount including the first representative value specified for each region to be processed, wherein each of the color regions includes the first feature amount. An image generating step for generating the third image indicating a single color determined by the first representative value included in the image, an image acquiring step for acquiring a second image, and the second image based on the second image. a second representative values for hue feature extraction step of extracting second feature amounts including the second representative value which is specified for each said area, the display step of displaying the pre-Symbol third image, the user Create selected third image Feature quantity selection step of selecting the first feature quantity used, based on the first feature amount and the second feature quantity said selected above for the second representative value is specified for the same said region It comprises an image correction step of correcting the second image by correcting to the first representative value and interpolating values other than the second representative value .
請求項14に係る発明は、画像処理プログラムにおいて、コンピュータに、特徴量記憶手段に記憶された第1特徴量であって、第1画像の色合いに関する第1の代表値であり、色情報に基づいて分割される領域ごとに特定される前記第1の代表値を含む前記第1特徴量、及び、画像記憶手段に記憶されている第3画像から抽出された第3特徴量であって、前記第3画像の色合いに関する第3の代表値であり、前記領域ごとに特定される前記第3の代表値を含む前記第3特徴量に基いて、前記第3代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第3代表値以外の値については、補間することにより、前記第3画像を補正する第3画像補正ステップ、第2画像を取得する画像取得ステップ、前記第2画像に基いて、前記第2画像の色合いに関する第2の代表値であり、前記領域ごとに特定される前記第2の代表値を含む第2特徴量を抽出する特徴量抽出ステップ、前記補正された第3画像を表示する表示ステップ、ユーザによる所定の入力に応じて、1つの画像補正された第3画像を特定し、当該特定された第3画像の画像補正に用いられた前記第1特徴量及び前記第2特徴量に基いて、前記第2代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第2代表値以外の値については、補間することにより、前記第2画像を画像補正する第2画像補正ステップを実行させることを特徴とする。 According to a fourteenth aspect of the present invention, in the image processing program, the first feature value stored in the feature value storage means in the computer is a first representative value relating to the hue of the first image, and is based on the color information. The first feature value including the first representative value specified for each region divided by the image and a third feature value extracted from the third image stored in the image storage means, Based on the third feature value that is the third representative value relating to the hue of the third image and includes the third representative value specified for each region, the third representative value is the same region. A third image correcting step for correcting the third image by correcting to the first representative value specified for the first, and interpolating values other than the third representative value, an image for acquiring the second image Acquisition step, the second image Based in a second representative values regarding hue of the second image feature extraction step of extracting second feature amounts including the second representative values specified for each of the regions, which is pre-Symbol corrected A display step for displaying the third image, and the first feature amount used for image correction of the specified third image by specifying one image-corrected third image in accordance with a predetermined input by the user And based on the second feature value, the second representative value is corrected to the first representative value specified for the same region, and values other than the second representative value are interpolated. Thus, a second image correction step for correcting the second image is executed.
請求項15に係る発明は、画像処理プログラムにおいて、コンピュータに、特徴量記憶手段に記憶されている第1特徴量であって、第1画像の色合いに関する第1の代表値であり、色情報に基づいて分割される領域ごとに特定される前記第1の代表値を含む前記第1特徴量に基いて、複数個の色領域を含む第3画像であって、前記色領域それぞれは、前記第1特徴量に含まれる前記第1の代表値によって決定される単色を示す前記第3画像を生成する画像生成ステップ、第2画像を取得する画像取得ステップ、前記第2画像に基いて、前記第2画像の色合いに関する第2の代表値であり、前記領域ごとに特定される前記第2の代表値を含む第2特徴量を抽出する特徴量抽出ステップ、前記第3画像を表示する表示ステップ、ユーザによって選択された第3画像の作成に用いられた前記第1特徴量を選択する特徴量選択ステップ、前記選択された第1特徴量及び前記第2特徴量に基いて、前記第2代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第2代表値以外の値については、補間することにより、前記第2画像を画像補正する画像補正ステップを実行させることを特徴とする。 According to a fifteenth aspect of the present invention, in the image processing program, the first feature amount stored in the feature amount storage means in the computer is a first representative value relating to the hue of the first image, and the color information includes A third image including a plurality of color areas based on the first feature value including the first representative value specified for each of the areas divided based on each of the color areas; image generating step of generating the third image of a single color that is determined by said first representative value included in the first feature amounts, image acquisition step of acquiring second image, based on the second image, the first a second representative values regarding hue of two images, the feature extraction step of extracting second feature amounts including the second representative value which is specified for each said area, the display step of displaying the pre-Symbol third image , Selected by user It has been a third image feature quantity selection step of selecting the first feature amount, which is used in, based on the first feature amount and the second feature quantity said selected for the second representative value, Correcting to the first representative value specified for the same region and interpolating values other than the second representative value to perform an image correction step of correcting the second image. Features.
請求項1に係る発明によれば、記憶している第1特徴量、及び、記憶している第3画像から抽出した第3特徴量に基いて当該第3画像に画像補正を行い、その結果を表示させ、ユーザからの選択によって特徴量を選択し、選択された特徴量及び第2画像の特徴量を利用して、第2画像の画像補正を行うから、ユーザは、画像補正の前段階で第2画像にどのような画像処理が施されるかを予測可能であるとともに、感覚的に所望の画像補正をすることができる。また、色相を特定するために種々のパラメータを用いることができる。 According to the first aspect of the invention, image correction is performed on the third image based on the stored first feature value and the third feature value extracted from the stored third image, and the result , The feature amount is selected by the selection from the user, and the image correction of the second image is performed using the selected feature amount and the feature amount of the second image. Thus, it is possible to predict what kind of image processing will be performed on the second image, and to perform desired image correction sensuously. Various parameters can be used to specify the hue.
請求項2に係る発明によれば、補正前及び補正後の第3画像を同時に表示するから、どのような画像処理が施されるかをより明確に確認することができる。 According to the second aspect of the present invention, the third image before and after correction is displayed at the same time, so it is possible to more clearly confirm what kind of image processing is performed.
請求項3に係る発明によれば、記憶している特徴量に基いて第3画像を生成し、選択された画像に用いられた特徴量を利用して、第2画像の補正を行うから、ユーザは、画像補正の前段階で第2画像にどのような画像処理が施されるかを予測可能であるとともに、感覚的に所望の画像補正をすることができる。また、予め表示用の画像を記憶しておく必要がないため、記憶容量を削減することができる。 According to the third aspect of the invention, the third image is generated based on the stored feature amount, and the second image is corrected using the feature amount used for the selected image. The user can predict what kind of image processing will be performed on the second image in the previous stage of image correction, and can perform desired image correction sensuously. Further, since it is not necessary to store a display image in advance, the storage capacity can be reduced.
請求項4に係る発明によれば、色相に関する特徴量及び色相以外に関する特徴量に基いて表示色を決定し、また、当該表示色の数が、分割された領域の数と同一であるから、どのような画像処理が行われるかを、容易に把握することができる。 According to the invention of claim 4, the display color is determined based on the feature amount related to the hue and the feature amount related to other than the hue, and the number of the display colors is the same as the number of the divided areas. It is possible to easily grasp what kind of image processing is performed.
請求項5に係る発明によれば、表示色の面積の割合とお手本画像の分割領域の割合とが同じであるので、どのような画像処理が行われるかを、より容易に把握することができる。 According to the invention of claim 5, since the ratio of the display color area and the ratio of the divided area of the model image are the same, it is possible to more easily understand what kind of image processing is performed. .
請求項6に係る発明によれば、明度及び/または彩度に関する特徴量を前記色相以外に関する特徴量とすることができる。 According to the invention which concerns on Claim 6, the feature-value regarding brightness and / or saturation can be made into the feature-value regarding other than the said hue.
請求項7に係る発明によれば、お手本画像、または、入力画像に占める割合が小さい分割領域に対応する表示色を表示しないため、当該表示色を画像補正対象の色領域から除外することができる。 According to the seventh aspect of the present invention, since the display color corresponding to the model image or the divided region with a small proportion of the input image is not displayed, the display color can be excluded from the color region to be corrected. .
請求項8に係る発明によれば、上述した効果を奏することができる。 According to the invention which concerns on Claim 8, there can exist the effect mentioned above.
請求項9に係る発明によれば、色相に関する特徴量と色相以外に関する特徴量とに分けて異なる画像補正処理を行うため、所望の画像補正処理を容易に行うことができる。 According to the ninth aspect of the invention, since different image correction processing is performed separately for the feature amount related to hue and the feature amount related to other than hue, desired image correction processing can be easily performed.
請求項10に係る発明によれば、HSV空間におけるH値に基いて色相に関する特徴量を算出することができる。 According to the invention which concerns on Claim 10, the feature-value regarding a hue is computable based on H value in HSV space.
請求項11に係る発明によれば、さらに、印刷制御手段を有するから、画像補正された第2画像を印刷することが可能となる。 According to the eleventh aspect of the present invention, since the print control unit is further included, it is possible to print the second image whose image has been corrected.
請求項12〜15に係る発明についても、上述した効果を奏することができる。 The inventions according to claims 12 to 15 can also achieve the effects described above.
[本発明の第1実施形態]
まず、本発明に係る画像処理装置の外観の一例について図1に示す。また、画像処理装置1の内部構成の一例について図2に示す。
[First embodiment of the present invention]
First, an example of the appearance of the image processing apparatus according to the present invention is shown in FIG. An example of the internal configuration of the image processing apparatus 1 is shown in FIG.
画像処理装置1は、多機能プリンタ等の一例であり、その上部に写真等から画像情報を読み取るためのスキャナ2を有している(なお、図1においては、スキャナはカバーされた状態である。)。スキャナによって読み取られた画像情報は、以下に示すメモリスロットより読み込まれた画像情報の色彩等を補正するための見本の情報として用いられる。なお、画像補正処理の詳細については、後述する。 The image processing apparatus 1 is an example of a multi-function printer or the like, and has a scanner 2 for reading image information from a photograph or the like on the upper part (in FIG. 1, the scanner is in a covered state). .) Image information read by the scanner is used as sample information for correcting the color and the like of image information read from the memory slot shown below. Details of the image correction process will be described later.
画像処理装置1は、SDカード(商標)、CFカード(商標)などの記録媒体である外部メモリに記録された画像情報を読み取るためのICカードリーダとして機能するメモリスロット3を有する。ここで、外部メモリ(記憶媒体)は、公知の媒体及び形式を適宜選択可能である。また、複数の方式の媒体に適用するよう、複数のメモリスロットを有するように構成してもよい。また、画像情報を蓄積したPCが接続されたLAN等のネットワークに接続可能な通信機能(例えばLANカード、図示せず)を図2に示すCPU,ROM、RAMなどが接続された信号線に付加することで、前記外部メモリの代わりに、前記PCが接続されたネットワークから所望の画像情報を読み取るよう構成してもよい。その場合は、画像処理装置1は、通信機能を有することになる。 The image processing apparatus 1 has a memory slot 3 that functions as an IC card reader for reading image information recorded in an external memory that is a recording medium such as an SD card (trademark) or a CF card (trademark). Here, as the external memory (storage medium), a known medium and format can be appropriately selected. Further, it may be configured to have a plurality of memory slots so as to be applied to a plurality of types of media. In addition, a communication function (for example, a LAN card, not shown) that can be connected to a network such as a LAN to which a PC storing image information is connected is added to the signal line to which the CPU, ROM, RAM, etc. shown in FIG. 2 are connected. Thus, instead of the external memory, desired image information may be read from a network to which the PC is connected. In that case, the image processing apparatus 1 has a communication function.
画像処理装置1は、種々の操作を行うための操作パネル4を有している。操作パネル4には種々のボタン等が配置される。 The image processing apparatus 1 has an operation panel 4 for performing various operations. Various buttons and the like are arranged on the operation panel 4.
画像処理装置1は、図2に図示されるプリンタ10を有している。画像補正された画像情報は、プリンタ10によって印刷される。印刷された用紙は、例えば、排出口5より排出される。 The image processing apparatus 1 includes a printer 10 illustrated in FIG. The image information subjected to the image correction is printed by the printer 10. The printed paper is discharged from the discharge port 5, for example.
画像処理装置1は、表示手段6を有している。種々の文字情報及びイメージを表示することができる。また、表示手段6の前面に透明なタッチパネルを設け、操作パネル4の一部または全部の機能を代用してもよい。また、タッチパネルと操作パネル4を併用できるよう構成してもよい。 The image processing apparatus 1 has display means 6. Various character information and images can be displayed. Further, a transparent touch panel may be provided on the front surface of the display unit 6 and a part or all of the functions of the operation panel 4 may be substituted. Moreover, you may comprise so that a touch panel and the operation panel 4 can be used together.
画像処理装置1は、プロセッサ(CPU9)によって全体が制御される。また、内部には、情報を一時的に記憶するためのRAM7、及び、所定の情報が記憶されたROM8を有する。また、必要に応じてHDD等の大容量記憶手段を有してもよい。 The image processing apparatus 1 is entirely controlled by a processor (CPU 9). In addition, there are a RAM 7 for temporarily storing information and a ROM 8 for storing predetermined information. Moreover, you may have mass storage means, such as HDD, as needed.
上述した各要素は、信号線によって互いに接続されている。 Each element mentioned above is mutually connected by the signal wire | line.
また、画像処理装置1に、種々の機能(例えば、FAX)を画像処理装置に付加することもできる。また、パソコン等に接続するためのインタフェース、他の印刷装置と接続するためのインタフェースを備えてもよい。 Further, various functions (for example, FAX) can be added to the image processing apparatus 1. Further, an interface for connecting to a personal computer or the like and an interface for connecting to another printing apparatus may be provided.
なお、上記外観は単なる一例であり、本発明が上記外観に限定されないことはいうまでもない。また、上記外観においては、全ての機能が一体化された装置を図示したが、一部の機能を外付け装置で実現してもよい。さらに、上記内部構成は単なる一例であり、本発明が上記内部構成に限定されないことはいうまでもない。 In addition, the said external appearance is only an example, and it cannot be overemphasized that this invention is not limited to the said external appearance. Moreover, in the above-mentioned external appearance, an apparatus in which all functions are integrated is shown, but some functions may be realized by an external apparatus. Furthermore, the internal configuration is merely an example, and it goes without saying that the present invention is not limited to the internal configuration.
次に、本発明に係る画像処理装置1を用いた基本処理について、ユーザの動作及び装置本体の処理について、その概略を説明する。図3は、当該処理の概略を示したものである。まず、ユーザは、画像補正対象となる画像が記憶されたメモリを、画像処理装置のメモリスロットにセットする。上述したとおり、このメモリとしては、メモリカードをはじめ公知の記憶媒体を適宜採用可能である。 Next, with regard to basic processing using the image processing apparatus 1 according to the present invention, an outline of user operations and processing of the apparatus body will be described. FIG. 3 shows an outline of the processing. First, the user sets a memory in which an image to be corrected is stored in a memory slot of the image processing apparatus. As described above, as this memory, a known storage medium such as a memory card can be appropriately employed.
メモリがメモリスロット3にセットされることにより(1)、画像処理装置は、セットされたメモリを認識し、ユーザに対し、メモリに記憶されている画像のうち画像補正対象となる画像を選択させる(2)。なお、画像を選択させるための処理は、公知の技術(例えば、画像を順次切替表示して選択させる等)を適宜採用可能である。また、表示手段6を利用してもよい。 When the memory is set in the memory slot 3 (1), the image processing apparatus recognizes the set memory and causes the user to select an image to be corrected from the images stored in the memory. (2). In addition, the process for selecting an image can employ | adopt suitably a well-known technique (For example, switching and displaying an image sequentially, etc.). Further, the display means 6 may be used.
画像補正対象の画像が決定されると(3)、画像処理装置は当該画像を読み出し、例えばRAMに書き込む(4)。なお、以下において当該画像を「元画像」ということがある。 When an image to be corrected is determined (3), the image processing apparatus reads the image and writes it in, for example, a RAM (4). Hereinafter, the image may be referred to as an “original image”.
次に、画像処理装置1は、補正イメージを作成して提示する(5)。提示される補正イメージは、後述するようサンプル画像やパッチ画像である。 Next, the image processing apparatus 1 creates and presents a corrected image (5). The correction image to be presented is a sample image or a patch image as will be described later.
その後、ユーザは所望の補正イメージを選択する(6)。このとき、ユーザは操作パネル4またはタッチパネルを操作する。 Thereafter, the user selects a desired correction image (6). At this time, the user operates the operation panel 4 or the touch panel.
その後、画像処理装置1は、選択された補正イメージの作成に用いられた特徴量及び選択した画像の特徴量を用いて元画像の画像補正処理を行う(7)。画像補正処理の具体的な内容については後述する。 Thereafter, the image processing apparatus 1 performs image correction processing of the original image using the feature amount used to create the selected correction image and the feature amount of the selected image (7). Specific contents of the image correction process will be described later.
なお、必要に応じ、補正された元画像の印刷処理を行う。 If necessary, the corrected original image is printed.
次に、画像処理装置1における基本処理について説明する。図4は、本実施形態における基本処理の概要を示すフローチャートである。 Next, basic processing in the image processing apparatus 1 will be described. FIG. 4 is a flowchart showing an outline of basic processing in the present embodiment.
まず、S11において、元画像を読み出し、例えば、RAM7に書き込まれる。ここで、読み込まれた画像の形式は限定されない。
S12において、読み込まれた元画像の画素をそれぞれHSVパラメータに変換する。HSVパラメータの変換処理については後述する。
First, in S11, the original image is read and written in the RAM 7, for example. Here, the format of the read image is not limited.
In S12, each pixel of the read original image is converted into an HSV parameter. The HSV parameter conversion process will be described later.
S13において、HSVパラメータに基き、元画像の特徴量として第2特徴量を抽出する。第2特徴量を抽出する具体的な処理については後述する。 In S13, a second feature value is extracted as a feature value of the original image based on the HSV parameter. Specific processing for extracting the second feature amount will be described later.
S14において、補正イメージを生成する。補正イメージの生成の具体的な処理については後述する。 In S14, a correction image is generated. Specific processing for generating the correction image will be described later.
S15において、補正イメージを表示し、所望の補正イメージをユーザに選択させ、元画像に対する画像補正のお手本となる補正イメージを特定する。補正イメージの提示処理については後述する。 In S15, the correction image is displayed, the user is allowed to select a desired correction image, and a correction image serving as a model for image correction with respect to the original image is specified. The correction image presentation process will be described later.
S16において、特定した補正イメージの作成に用いられた第1特徴量を特定する。第1特徴量の詳細については後述する。 In S16, the first feature amount used to create the specified corrected image is specified. Details of the first feature amount will be described later.
S17において、第1特徴量及び第2特徴量に基いて元画像を色補正する。補正するための具体的な処理については後述する。 In S17, the original image is color-corrected based on the first feature value and the second feature value. Specific processing for correction will be described later.
S18において、補正された元画像を印刷する。このとき、必要に応じてHSVパラメータは、他のパラメータ(例えば、RGBパラメータ)に変換される。RGBパラメータへの変換処理については後述する。 In S18, the corrected original image is printed. At this time, the HSV parameters are converted into other parameters (for example, RGB parameters) as necessary. The conversion process to RGB parameters will be described later.
なお、上述した処理においては、HSVパラメータではなく、L*c*h*パラメータを抽出してもよい。また、RGBパラメータ等の公知のパラメータであっても本発明は実現可能である。なお、以下においては、HSVパラメータを抽出する場合について説明する。 In the above-described processing, L * c * h * parameters may be extracted instead of HSV parameters. Further, the present invention can be realized even with known parameters such as RGB parameters. In the following, a case where HSV parameters are extracted will be described.
次に、図4のS12においてHSVパラメータに変換するための処理の一例を説明する。元画像がRGBパラメータとして取得した場合は、以下の変換式によって、HSVパラメータに変換することができる。なお、下記に示す変換式は一例であり、他の変換式で変換してもよいことはいうまでもない。 Next, an example of processing for converting into HSV parameters in S12 of FIG. 4 will be described. When the original image is acquired as an RGB parameter, it can be converted into an HSV parameter by the following conversion formula. In addition, the conversion formula shown below is an example, and it cannot be overemphasized that you may convert with another conversion formula.
[RGB⇒HSV変換式]
max(a,b,c)はa,b,cの中で最も大きい値を表す。
min(a,b,c)はa,b,cの中で最も小さい値を表す。
V = max(R÷255,G÷255,B÷255)
Vが0でない時、
S = {V - min(R,G,B)} ÷ V
Vが0の時、
S = 0
{V - min(R,G,B)}が0でない時、
r = (V - R÷255)÷(V-min(R,G,B)
g = (V - G÷255)÷(V-min(R,G,B)
b = (V - B÷255)÷(V-min(R,G,B)
{V - min(R,G,B)}が0の時、
r = 0
g = 0
b = 0
V = R÷255の時
H = 60 × (b-g)
V = G÷255の時
H = 60 × (2+r-g)
V = B÷255の時
H = 60 × (4+g-r)
ただしH<0の時
H = H+360
[RGB → HSV conversion formula]
max (a, b, c) represents the largest value among a, b, and c.
min (a, b, c) represents the smallest value among a, b, and c.
V = max (R ÷ 255, G ÷ 255, B ÷ 255)
When V is not 0
S = {V-min (R, G, B)} ÷ V
When V is 0
S = 0
When {V-min (R, G, B)} is not 0,
r = (V-R ÷ 255) ÷ (V-min (R, G, B)
g = (V-G ÷ 255) ÷ (V-min (R, G, B)
b = (V-B ÷ 255) ÷ (V-min (R, G, B)
When {V-min (R, G, B)} is 0,
r = 0
g = 0
b = 0
When V = R ÷ 255
H = 60 × (bg)
When V = G ÷ 255
H = 60 × (2 + rg)
When V = B ÷ 255
H = 60 × (4 + gr)
However, when H <0
H = H + 360
次に、図4のS13における第2特徴量を抽出するための処理について図5を参照しつつ説明する。図5は、第2特徴量抽出処理のフローチャートである。なお、以下の処理においては、H値は、−30〜330未満の値をとるものとする。H値が上記範囲内でない場合は、H値を適宜変換することにより(例えば、“H値+360×n”もしくは“H値−360×n”、nは整数)、上記範囲の値をとるよう調整する。 Next, the process for extracting the second feature value in S13 of FIG. 4 will be described with reference to FIG. FIG. 5 is a flowchart of the second feature amount extraction process. In the following processing, the H value takes a value of −30 to less than 330. When the H value is not within the above range, by appropriately converting the H value (for example, “H value + 360 × n” or “H value−360 × n”, n is an integer), the value in the above range is taken. adjust.
S21において、元画像の複数の領域に分割する。ここでは、一般的に用いられる6つの色相に基いて分割する。具体的には、それぞれの画素のH値に基き、
・R領域: −30以上〜30未満
・Y領域: 30以上〜90未満
・G領域: 90以上〜150未満
・C領域: 150以上〜210未満
・B領域: 210以上〜270未満
・M領域: 270以上〜330未満
に分割する。つまり、お手本画像の構成画素をその色相値に応じた上記分類基準に従い、6つの分類項目に分類する処理を行う。ここで、上記領域とH値の対応関係は、一例であり、適宜変更可能なものである。
In S21, the original image is divided into a plurality of regions. Here, the image is divided based on six commonly used hues. Specifically, based on the H value of each pixel,
-R region: -30 or more and less than 30-Y region: 30 or more and less than 90-G region: 90 or more and less than 150-C region: 150 or more and less than 210-B region: 210 or more and less than 270-M region: Divide into 270 or more and less than 330. That is, a process of classifying the constituent pixels of the model image into six classification items according to the classification standard corresponding to the hue value is performed. Here, the correspondence relationship between the region and the H value is an example and can be changed as appropriate.
S22において、S21で分割した領域ごとに、「各領域の代表値(HSV値)」及び「各領域が元画像中に占める割合」を算出する。ここで、各領域の代表値(HSV値)を、以下のように定義する。
・R領域の代表値:iHr,iSr,iVr
・G領域の代表値:iHg,iSg,iVg
・B領域の代表値:iHb,iSb,iVb
・C領域の代表値:iHc,iSc,iVc
・M領域の代表値:iHm,iSm,iVm
・Y領域の代表値:iHy,iSy,iSy
In S22, “representative value (HSV value) of each region” and “ratio of each region in the original image” are calculated for each region divided in S21. Here, the representative value (HSV value) of each region is defined as follows.
・ Representative value of R region: iHr, iSr, iVr
・ Representative value of G region: iHg, iSg, iVg
・ Representative value of B area: iHb, iSb, iVb
-Typical value of C region: iHc, iSc, iVc
-Typical values in the M region: iHm, iSm, iVm
・ Representative value of Y area: iHy, iSy, iSy
ここで、代表値は、各領域におけるHSV値それぞれの平均値とすることができる。また、中間値を用いることができる。 Here, the representative value can be an average value of each HSV value in each region. Moreover, an intermediate value can be used.
次に、各領域が元画像中に占める割合を、以下のように定義する。
・R領域が元画像中に占める割合:iRateR
・G領域が元画像中に占める割合:iRateG
・B領域が元画像中に占める割合:iRateB
・C領域が元画像中に占める割合:iRateC
・M領域が元画像中に占める割合:iRateM
・Y領域が元画像中に占める割合:iRateY
Next, the proportion of each area in the original image is defined as follows.
-Ratio of R area in original image: iRateR
-Ratio of the G area in the original image: iRateG
-Ratio of B area in original image: iRateB
-Ratio of the C area in the original image: iRateC
-Ratio of M area in original image: iRateM
The ratio of the Y area in the original image: iRateY
ここで、上記割合は、例えばR領域については、
sRateR=(元画像中のR領域の画素数)÷(元画像の全画素数)で定義することができるが、他の式によって定義してもよい。
Here, the ratio is, for example, for the R region,
Although it can be defined by sRateR = (number of pixels in the R region in the original image) / (total number of pixels in the original image), it may be defined by another formula.
次に、図4のS14で生成され、S15において特定される補正イメージについて詳細に説明する。図6に、画像処理装置1の内部メモリに記憶されている情報の例を示す。図6に示すとおり、内部メモリには、複数の第1特徴量(特徴量A、特徴量B、・・・)とサンプル画像が記憶されている。ここで、第1特徴量は、所定の画像から抽出した特徴量である。内部メモリには、第1特徴量の元となる所定の画像は記憶されておらず、第1特徴量のみが記憶されるので、内部メモリの記憶容量を削減することができる。それぞれの第1特徴量は、上述した第2特徴量と同様の種類のものでよい。 Next, the correction image generated in S14 of FIG. 4 and specified in S15 will be described in detail. FIG. 6 shows an example of information stored in the internal memory of the image processing apparatus 1. As shown in FIG. 6, the internal memory stores a plurality of first feature amounts (feature amount A, feature amount B,...) And sample images. Here, the first feature amount is a feature amount extracted from a predetermined image. The internal memory does not store the predetermined image that is the basis of the first feature value, and stores only the first feature value, so that the storage capacity of the internal memory can be reduced. Each first feature amount may be of the same type as the second feature amount described above.
内部メモリに複数記憶される第1特徴量から1つを読み出し、読み出した第1特徴量とサンプル画像から抽出された第3特徴量を用いて、サンプル画像を色補正する。ここで、第3特徴量は、第1特徴量と同様に特徴量記憶手段に事前に記憶してもよく、第3画像を補正するたびに第3特徴量を抽出してもよい。第3特徴量を記憶しておく構成によれば、画像補正するたびに第3特徴量を抽出する必要がないので、画像処理装置の処理負荷の軽減を図ることができる。また、第3特徴量を記憶しておかない構成によれば、記憶容量の削減を図ることができ、記憶容量の圧迫を防止することができる。また、第3特徴量は、上述した第2特徴量と同様の種類のものでよい。 One is read from a plurality of first feature values stored in the internal memory, and the sample image is color-corrected using the read first feature value and the third feature value extracted from the sample image. Here, the third feature amount may be stored in advance in the feature amount storage unit in the same manner as the first feature amount, or the third feature amount may be extracted every time the third image is corrected. According to the configuration in which the third feature amount is stored, it is not necessary to extract the third feature amount every time image correction is performed, and thus it is possible to reduce the processing load of the image processing apparatus. Further, according to the configuration in which the third feature value is not stored, the storage capacity can be reduced, and the storage capacity can be prevented from being compressed. The third feature amount may be the same type as the second feature amount described above.
次に、サンプル画像の色補正について説明する。読み出した第1特徴量として、以下の情報を含むものとする。
・R領域の代表値:sHr,sSr,sVr
・G領域の代表値:sHg,sSg,sVg
・B領域の代表値:sHb,sSb,sVb
・C領域の代表値:sHc,sSc,sVc
・M領域の代表値:sHm,sSm,sVm
・Y領域の代表値:sHy,sSy,sSy
・R領域が占める割合:sRateR
・G領域が占める割合:sRateG
・B領域が占める割合:sRateB
・C領域が占める割合:sRateC
・M領域が占める割合:sRateM
・Y領域が占める割合:sRateY
Next, color correction of the sample image will be described. It is assumed that the following information is included as the read first feature amount.
-Typical values of R region: sHr, sSr, sVr
-Typical values in the G region: sHg, sSg, sVg
-Typical values of the B region: sHb, sSb, sVb
-Typical value of C region: sHc, sSc, sVc
-Typical values in the M region: sHm, sSm, sVm
-Typical values of the Y region: sHy, sSy, sSy
-Ratio occupied by R region: sRateR
・ Percentage occupied by G area: sRateG
-Ratio of area B: sRateB
・ Percentage occupied by C area: sRateC
・ Percentage occupied by M area: sRateM
・ Percentage occupied by Y area: sRateY
また、第3特徴量として、以下の情報を含むものとする。
・R領域の代表値:tHr,tSr,tVr
・G領域の代表値:tHg,tSg,tVg
・B領域の代表値:tHb,tSb,tVb
・C領域の代表値:tHc,tSc,tVc
・M領域の代表値:tHm,tSm,tVm
・Y領域の代表値:tHy,tSy,tSy
・R領域が占める割合:tRateR
・G領域が占める割合:tRateG
・B領域が占める割合:tRateB
・C領域が占める割合:tRateC
・M領域が占める割合:tRateM
・Y領域が占める割合:tRateY
Further, the following information is included as the third feature amount.
・ Representative values of R region: tHr, tSr, tVr
-Typical values in the G region: tHg, tSg, tVg
-Typical values of the B region: tHb, tSb, tVb
-Representative values of C region: tHc, tSc, tVc
-Typical values in the M region: tHm, tSm, tVm
-Typical values of the Y region: tHy, tSy, tSy
-Ratio occupied by R region: tRateR
・ Percentage occupied by G area: tRateG
-Ratio of area B: tRateB
・ Percentage occupied by C area: tRateC
-Ratio occupied by M region: tRateM
・ Percentage occupied by Y area: tRateY
まず、H値における変換処理について説明する。第3特徴量中のH値の代表値をX軸にとり、第1特徴量中のH値の代表値をY軸にとって領域ごとのH値の代表値をプロットする。そしてプロットされた点の間を、例えば、線形補間することにより、図7に示す色相補正テーブルを作成する。図7に示す色相補正テーブルは、第3特徴量中のH値を「H」としてX軸にとり、第1特徴量中のH値を「H’」としてY軸にとったものである。ここで、H’>360の場合は、H’=H’−360とする。 First, the conversion process for the H value will be described. The representative value of the H value in the third feature value is plotted on the X axis, and the representative value of the H value in the first feature value is plotted on the Y axis, and the representative value of the H value for each region is plotted. Then, a hue correction table shown in FIG. 7 is created by linear interpolation between the plotted points, for example. The hue correction table shown in FIG. 7 is obtained by taking the H value in the third feature amount as “H” on the X axis and the H value in the first feature amount as “H ′” on the Y axis. Here, when H ′> 360, H ′ = H′-360.
そして、サンプル画像のぞれぞれの画素のH値に対し、上記色相補正テーブルを適用することによって、H値が補正される。より具体的には、補正後のH’は、以下の式で定義することができる。 Then, the H value is corrected by applying the hue correction table to the H value of each pixel of the sample image. More specifically, the corrected H ′ can be defined by the following equation.
H’=(y2-y1)÷(x2-x1)×H - (y2-y1)÷(x2-x1)×x2 + y2
・・・(式1)
ここで、x1,x2,y1,y2は、以下のように定義される。
H ′ = (y2−y1) ÷ (x2−x1) × H− (y2−y1) ÷ (x2−x1) × x2 + y2
... (Formula 1)
Here, x1, x2, y1, and y2 are defined as follows.
H<iHrのときは、
(x1,y1)= (tHm−360,sHm−360)
(x2,y2)= (tHr,sHr)
When H <iHr,
(X1, y1) = (tHm-360, sHm-360)
(X2, y2) = (tHr, sHr)
iHr≦H<iHyのときは、
(x1,y1)= (tHr,sHr)
(x2,y2)= (tHy,sHy)
When iHr ≦ H <iHy,
(X1, y1) = (tHr, sHr)
(X2, y2) = (tHy, sHy)
iHy≦H<iHgのときは、
(x1,y1)= (tHy,sHy)
(x2,y2)= (tHg,sHg)
When iHy ≦ H <iHg,
(X1, y1) = (tHy, sHy)
(X2, y2) = (tHg, sHg)
iHg≦H<iHcのときは、
(x1,y1)= (tHg,sHg)
(x2,y2)= (tHc,sHc)
When iHg ≦ H <iHc,
(X1, y1) = (tHg, sHg)
(X2, y2) = (tHc, sHc)
iHc≦H<iHbのときは、
(x1,y1)= (tHc,sHc)
(x2,y2)= (tHb,sHb)
When iHc ≦ H <iHb,
(X1, y1) = (tHc, sHc)
(X2, y2) = (tHb, sHb)
iHb≦H<iHmのときは、
(x1,y1)= (tHb,sHb)
(x2,y2)= (tHm,sHm)
When iHb ≦ H <iHm,
(X1, y1) = (tHb, sHb)
(X2, y2) = (tHm, sHm)
iHm≦Hのときは、
(x1,y1)= (tHm,sHm)
(x2,y2)= (tHr+360,sHr+360)
When iHm ≦ H,
(X1, y1) = (tHm, sHm)
(X2, y2) = (tHr + 360, sHr + 360)
次に、サンプル画像の各画素のS値及びV値における補正について説明する。S値及びY値は、H値によって分割された領域ごとに値が変換される。例えば、R領域について、
S ≦ tSrのときは、
S’=S×(sSr÷tSr) ・・・(式2)
S > tSrのときは、
S’=1+(S−1)×{(1−sSr)÷(1−tSr)} ・・・(式3)
V ≦ tVrのときは、
V’=V×(sVr÷tVr) ・・・(式4)
V > tVrのときは、
V’=1+(V−1)×{(1−sVr)÷(1−tVr)} ・・・(式5)
の式で求めることができる。また、その他の領域の計算についても同様に算出することができる。なお、以下においては、上記S値の変換式で定義される変換テーブルを彩度補正テーブルということがあり、また、上記V値の変換式で定義される変換テーブルを明度補正テーブルということがある。
Next, correction in the S value and V value of each pixel of the sample image will be described. The S value and the Y value are converted for each area divided by the H value. For example, for the R region:
When S ≦ tSr,
S ′ = S × (sSr ÷ tSr) (Formula 2)
When S> tSr,
S ′ = 1 + (S−1) × {(1−sSr) ÷ (1−tSr)} (Formula 3)
When V ≦ tVr,
V ′ = V × (sVr ÷ tVr) (Formula 4)
When V> tVr,
V ′ = 1 + (V−1) × {(1−sVr) ÷ (1−tVr)} (Formula 5)
It can be calculated by the following formula. Further, other areas can be similarly calculated. In the following, the conversion table defined by the S value conversion formula may be referred to as a saturation correction table, and the conversion table defined by the V value conversion formula may be referred to as a brightness correction table. .
上記処理を、特徴量A、特徴量Bの順に行い、画像補正されたサンプル画像を提示することにより、補正イメージが提示されることになる。このとき、図8に示すように、補正前画像と補正後画像を同時に表示してもよい。また、補正されたサンプル画像を複数同時に表示し、ユーザに選択させてもよい。 By performing the above-described processing in the order of the feature amount A and the feature amount B and presenting the sample image that has been subjected to image correction, a corrected image is presented. At this time, as shown in FIG. 8, the pre-correction image and the post-correction image may be displayed simultaneously. Alternatively, a plurality of corrected sample images may be displayed simultaneously and selected by the user.
上述した処理により、ユーザの選択に基いて補正イメージが特定される。 Through the above-described processing, the correction image is specified based on the user's selection.
また、図6に示した例においては、サンプル画像は1枚であったが、複数のサンプル画像を記憶しておいてもよい。 In the example shown in FIG. 6, the number of sample images is one, but a plurality of sample images may be stored.
次に、図4のS16における元画像の色補正処理について説明する。S15で特定された第1特徴量及び元画像の第2特徴量を用いて、元画像を補正する。補正の方法は、上述したサンプル画像に対する補正方法と同じである。 Next, the color correction process of the original image in S16 of FIG. 4 will be described. The original image is corrected using the first feature amount specified in S15 and the second feature amount of the original image. The correction method is the same as the correction method for the sample image described above.
次に、図4のS17における、プリンタ10に適するフォーマット(例えば、RGB値)に変換するための変換式について説明する。なお、下記に示す変換式は一例であり、他の変換式で変換してもよいことはいうまでもない。 Next, a conversion formula for converting into a format (for example, RGB value) suitable for the printer 10 in S17 of FIG. 4 will be described. In addition, the conversion formula shown below is an example, and it cannot be overemphasized that you may convert with another conversion formula.
[HSV⇒RGB]
(以下で示すin, fl, m, nは、HSVからRGBを算出する過程で利用する媒介変数で
ある)
in を (H÷60)の整数部分、fl を (H÷60)の小数部分とする。
in が偶数の場合
fl = 1-fl
m = V × (1-S)
n = V × (1-S×fl)
inが0の時
R = V × 255
G = n × 255
B = m × 255
inが1の時
R = n × 255
G = V × 255
B = m × 255
inが2の時
R = m × 255
G = V × 255
B = n × 255
inが3の時
R = m × 255
G = n × 255
B = V × 255
inが4の時
R = n × 255
G = m × 255
B = V × 255
inが5の時
R = V × 255
G = m × 255
B = n × 255
[HSV⇒RGB]
(In, fl, m, and n shown below are parameters used in the process of calculating RGB from HSV)
Let in be the integer part of (H ÷ 60) and fl be the decimal part of (H ÷ 60).
If in is an even number
fl = 1-fl
m = V × (1-S)
n = V × (1-S × fl)
When in is 0
R = V × 255
G = n × 255
B = m × 255
When in is 1
R = n × 255
G = V × 255
B = m × 255
When in is 2
R = m × 255
G = V × 255
B = n × 255
When in is 3
R = m × 255
G = n × 255
B = V × 255
When in is 4
R = n × 255
G = m × 255
B = V × 255
When in is 5
R = V × 255
G = m × 255
B = n × 255
上述した本発明の第1実施形態によれば、予め記憶しているサンプル画像に対し、予め記憶している第1特徴量及びサンプル画像から抽出した第3特徴量に基いてサンプル画像を補正し、ユーザによって選択されたサンプル画像に対応する第1特徴量を用いて画像補正を行う。また、上述した画像補正処理を行うことによって、H値に基いて分割された領域ごとに、元画像の色合いをお手本画像の色合いに画像補正することができる。また、第1特徴量の元となった画像は記憶せず、第1特徴量のみを記憶するから記憶容量を削減できる。 According to the first embodiment of the present invention described above, the sample image is corrected based on the first feature value stored in advance and the third feature value extracted from the sample image with respect to the sample image stored in advance. The image correction is performed using the first feature amount corresponding to the sample image selected by the user. Further, by performing the above-described image correction processing, the color of the original image can be corrected to the color of the model image for each area divided based on the H value. Further, since the image that is the basis of the first feature value is not stored, but only the first feature value is stored, the storage capacity can be reduced.
[画像補正処理の第2実施形態]
以下に説明する画像補正処理の第2実施形態においては、分割されたそれぞれの領域に対し、領域の大きさに基いて画像補正処理の一部を停止、また、変化量を制御することができる。これにより、ユーザがお手本画像の一部の色合いのみを元画像の色合いに反映させることができる。
[Second Embodiment of Image Correction Processing]
In the second embodiment of the image correction process described below, for each divided area, a part of the image correction process can be stopped and the amount of change can be controlled based on the size of the area. . Thereby, the user can reflect only a part of the hue of the model image in the hue of the original image.
本実施形態の基本処理のフローチャートを図9に示す。本実施形態の基本的な処理の流れは図4と同じであるが、第2特徴量抽出処理の後に、代表値再設定処理(S37)が追加される。以下、代表値再設定処理について、図を参照しつつ説明する。 FIG. 9 shows a flowchart of basic processing of this embodiment. The basic processing flow of this embodiment is the same as that in FIG. 4, but a representative value resetting process (S37) is added after the second feature amount extraction process. Hereinafter, the representative value resetting process will be described with reference to the drawings.
図10は、本実施形態における代表値再設定処理のフローチャートである。S41において、分割された領域が補正対象か否かを判別される。この処理では、当該領域が所定の条件を満たすか否かが判断される。 FIG. 10 is a flowchart of the representative value resetting process in the present embodiment. In S41, it is determined whether or not the divided area is a correction target. In this process, it is determined whether or not the area satisfies a predetermined condition.
補正対象であると判断された場合(S41:YES)は、S43に進む。補正対象でないと判断された場合(S41:NO)は、S42に進む。S42では、代表値が再設定し、その後S43に進む。代表値の再設定の方法は後述する。 When it is determined that it is a correction target (S41: YES), the process proceeds to S43. If it is determined that it is not a correction target (S41: NO), the process proceeds to S42. In S42, the representative value is reset, and then the process proceeds to S43. A method of resetting the representative value will be described later.
S43においては、全ての領域(6分割した場合は6つの領域)について、補正対象か否かが判断されたか否かを判別する。判別していない領域が残っている場合(S43:NO)は、S41に戻り処理を繰り返す。全ての領域についての判断が終了すると(S43:YES)、代表値再設定処理を終了する。 In S43, it is determined whether or not all the regions (six regions when divided into 6) are determined as correction targets. If an unidentified area remains (S43: NO), the process returns to S41 and the process is repeated. When the determination for all areas is completed (S43: YES), the representative value resetting process is terminated.
[閾値Threを用いる方法]
上述した所定の条件として、分割された領域の大きさと閾値Threとの大小関係を用いることができる。元画像、または、お手本画像に占める割合が閾値Threより小さい場合に、その領域に係る元画像及びお手本画像の代表値を同じ値に変更し、当該変更された代表値を用いて上述した画素ごとの変換処理を行う。以下、この処理について説明する。代表値を以下のように再設定することができる。
[Method using threshold Thre]
As the predetermined condition described above, the magnitude relationship between the size of the divided area and the threshold value Thre can be used. When the ratio of the original image or the model image is smaller than the threshold value Thre, the representative value of the original image and the model image related to the region is changed to the same value, and the above-described changed representative value is used for each pixel described above. Perform the conversion process. Hereinafter, this process will be described. The representative value can be reset as follows.
sRateR<Thre または iRateR<Thre のときは、
sHr=0,sSr=0.5,sVr=0.5,
iHr=0,iSr=0.5,iVr=0.5
When sRateR <Thre or iRateR <Thre,
sHr = 0, sSr = 0.5, sVr = 0.5,
iHr = 0, iSr = 0.5, iVr = 0.5
sRateG<Thre または iRateG<Thre のときは、
sHg=120,sSg=0.5,sVg=0.5,
iHg=120,iSg=0.5,iVg=0.5
When sRateG <Thre or iRateG <Thre,
sHg = 120, sSg = 0.5, sVg = 0.5,
iHg = 120, iSg = 0.5, iVg = 0.5
sRateB<Thre または iRateB<Thre のときは、
sHb=240,sSb=0.5,sVb=0.5,
iHb=240,iSb=0.5,iVb=0.5
When sRateB <Thre or iRateB <Thre,
sHb = 240, sSb = 0.5, sVb = 0.5,
iHb = 240, iSb = 0.5, iVb = 0.5
sRateC<Thre または iRateC<Thre のときは、
sHc=180,sSc=0.5,sVc=0.5,
iHc=180,iSc=0.5,iVc=0.5
When sRateC <Thre or iRateC <Thre,
sHc = 180, sSc = 0.5, sVc = 0.5,
iHc = 180, iSc = 0.5, iVc = 0.5
sRateM<Thre または iRateM<Thre のときは、
sHm=300,sSm=0.5,sVm=0.5,
iHm=300,iSm=0.5,iVm=0.5
When sRateM <Thre or iRateM <Thre,
sHm = 300, sSm = 0.5, sVm = 0.5,
iHm = 300, iSm = 0.5, iVm = 0.5
sRateY<Thre または iRateY<Thre のときは、
sHy=60,sSy=0.5,sVy=0.5,
iHy=60,iSy=0.5,iVy=0.5
When sRateY <Thre or iRateY <Thre,
sHy = 60, sSy = 0.5, sVy = 0.5,
iHy = 60, iSy = 0.5, iVy = 0.5
上述した実施形態においては、S値及びV値については、そのとり得る値(0〜1)の中間値である0.5を採用した。また、H値においては、それぞれの領域の中間値を採用した。しかしながら、上述した代表値は一例であり、本発明は上記数値に限定されるものではない。 In the above-described embodiment, 0.5, which is an intermediate value between possible values (0 to 1), is adopted for the S value and the V value. Moreover, the intermediate value of each area | region was employ | adopted about H value. However, the representative values described above are examples, and the present invention is not limited to the above numerical values.
この値を利用して、画素ごとの変換を上述した変換式(式2)〜(式5)を用いることにより、S値及びV値においては値が変更されない。すなわち、例えばR領域に関して、S ≦ iSrのときは、上述した(式2)のとおり、 By using this value and using the conversion expressions (Expression 2) to (Expression 5) described above for conversion for each pixel, the values are not changed in the S value and the V value. That is, for example, with respect to the R region, when S ≦ iSr, as described above (Formula 2),
S’=S×(sSr÷iSr) S ′ = S × (sSr ÷ iSr)
の式で算出されるが、当該式において、sSr=0.5,iSr=0.5となるので、上述した式は、 In this formula, sSr = 0.5 and iSr = 0.5, so the above formula is
S’=S×(0.5÷0.5)=S ・・・(式6)
となる。S>iSrのときも同様にS’=Sとなる。また、 V値、及び、他の領域につ
いても同様に変換されない。
S ′ = S × (0.5 ÷ 0.5) = S (Expression 6)
It becomes. Similarly, when S> iSr, S ′ = S. Similarly, the V value and other regions are not converted.
また、H値においては、図7においてプロットされる点が代表値に変更されるので、その領域における変換量を小さくすることができる。すなわち、上述した変更式(式1)を利用した場合であっても、代表値を変更させることによって変換量が小さくなる。 Further, in the H value, the point plotted in FIG. 7 is changed to the representative value, so that the conversion amount in that region can be reduced. That is, even when the above-described changing formula (Formula 1) is used, the conversion amount is reduced by changing the representative value.
次に、閾値Threの決定方法について説明する。この値は、官能評価に基いて決定することができる。官能評価では、約6%以上の面積を占めていれば、その領域は知覚されやすいことを確認した。したがって、閾値Threとして、6%を採用することができる。ただし、本願発明は、閾値Threとして6%のものに限定されない。 Next, a method for determining the threshold value Thre will be described. This value can be determined based on sensory evaluation. In sensory evaluation, it was confirmed that if the area occupied about 6% or more, the area was easily perceived. Therefore, 6% can be adopted as the threshold Thre. However, the present invention is not limited to the threshold Thre of 6%.
また、他の領域に対して相対的に面積が大きい領域を抽出するよう閾値Threを決定してもよい。例えば、分割される領域の数が6であれば、その逆数である1/6を閾値Threとすることもできる。 Further, the threshold Thre may be determined so as to extract a region having a relatively large area relative to other regions. For example, if the number of areas to be divided is 6, 1/6, which is the reciprocal thereof, can be set as the threshold value Thre.
本発明の一例として挙げた分割領域数である「6」は、色彩を表現する色域の1つであるRGB空間(頂点数8)から、無彩色である白と黒とを除いた頂点の数「6」と同じである。人が色彩を識別するには、色領域の数として6であれば充分であり、6より少なくすると、ユーザがお手本画像のように変換されていないと感じる恐れがある。また6より細かく分割すれば、より変換精度は高くなる。しかしながら、人には識別できなくなる可能性が高くなり、また、分割数の増加に伴い計算量も増える。プリンタを用いる場合、印刷結果として補正対象の画像を得るまでの時間が遅くなり、ユーザの不満も増加する可能性も高くなるので、分割される領域の数は6が好ましいと考えられる。 The number of divided areas “6” given as an example of the present invention is the number of vertices excluding white and black, which are achromatic colors, from the RGB space (number of vertices 8) that is one of the color gamuts expressing colors. It is the same as the number “6”. In order for a person to identify a color, six is sufficient as the number of color regions, and if it is less than six, the user may feel that the image has not been converted as in the model image. If the data is divided more finely than 6, the conversion accuracy becomes higher. However, there is a high possibility that the person cannot be identified, and the amount of calculation increases as the number of divisions increases. In the case of using a printer, the time until obtaining an image to be corrected as a printing result is delayed, and there is a high possibility that user dissatisfaction will increase.
なお、上述した例においては、すべての領域において閾値を同一のものとしたが、領域ごとに閾値Threを変更するよう構成してもよい。 In the example described above, the threshold value is the same in all the regions, but the threshold value Thre may be changed for each region.
[最大領域の情報を用いる方法]
上述した手法では、閾値Threを設定し、当該閾値Threに基いて代表値の変更、すなわち、画像補正処理の停止、変換量の減少の制御を行った。ここで、お手本画像の特定の色のみについて元画像に反映させるために、画像中の最大領域の情報を用いる画像補正処理について以下説明する。
[Method using information of maximum area]
In the above-described method, the threshold Thre is set, and the representative value is changed based on the threshold Thre, that is, the image correction processing is stopped and the conversion amount is reduced. Here, an image correction process using information on the maximum area in the image in order to reflect only a specific color of the model image in the original image will be described below.
この場合、図10のS41において、元画像及びお手本画像のいずれにおいても最も面積が大きい領域であるか否かを所定の条件とすることができる。この場合は、以下の式によって代表値が再設定される。ここで、分割されたお手本画像の領域のうちお手本画像に占める割合が最も大きい領域の割合を、iMaxRateとする。また、分割された元画像の領域のうち元画像に占める割合が最も大きい領域の割合を、sMaxRateとする。 In this case, in S41 of FIG. 10, whether or not the area is the largest in both the original image and the model image can be set as a predetermined condition. In this case, the representative value is reset by the following formula. Here, the ratio of the divided area of the model image that has the largest ratio to the model image is iMaxRate. Further, the ratio of the divided area of the original image that has the largest ratio to the original image is sMaxRate.
sRateR≠iMaxRateまたはiRateR≠sMaxRateのとき、
sHr=0,sSr=0.5,sVr=0.5,
iHr=0,iSr=0.5,iVr=0.5
When sRateR ≠ iMaxRate or iRateR ≠ sMaxRate,
sHr = 0, sSr = 0.5, sVr = 0.5,
iHr = 0, iSr = 0.5, iVr = 0.5
sRateG≠iMaxRateまたはiRateG≠sMaxRateのとき、
sHg=120,sSg=0.5,sVg=0.5,
iHg=120,iSg=0.5,iVg=0.5
When sRateG ≠ iMaxRate or iRateG ≠ sMaxRate,
sHg = 120, sSg = 0.5, sVg = 0.5,
iHg = 120, iSg = 0.5, iVg = 0.5
sRateB≠iMaxRateまたはiRateB≠sMaxRateのとき、
sHb=240,sSb=0.5,sVb=0.5,
iHb=240,iSb=0.5,iVb=0.5
When sRateB ≠ iMaxRate or iRateB ≠ sMaxRate,
sHb = 240, sSb = 0.5, sVb = 0.5,
iHb = 240, iSb = 0.5, iVb = 0.5
sRateC≠iMaxRateまたはiRateC≠sMaxRateのとき、
sHc=180,sSc=0.5,sVc=0.5,
iHc=180,iSc=0.5,iVc=0.5
When sRateC ≠ iMaxRate or iRateC ≠ sMaxRate,
sHc = 180, sSc = 0.5, sVc = 0.5,
iHc = 180, iSc = 0.5, iVc = 0.5
sRateM≠iMaxRateまたはiRateM≠sMaxRateのとき、
sHm=300,sSm=0.5,sVm=0.5,
iHm=300,iSm=0.5,iVm=0.5
When sRateM ≠ iMaxRate or iRateM ≠ sMaxRate,
sHm = 300, sSm = 0.5, sVm = 0.5,
iHm = 300, iSm = 0.5, iVm = 0.5
sRateY≠iMaxRateまたはiRateY≠sMaxRateのとき、
sHy=60,sSy=0.5,sVy=0.5,
iHy=60,iSy=0.5,iVy=0.5
When sRateY ≠ iMaxRate or iRateY ≠ sMaxRate,
sHy = 60, sSy = 0.5, sVy = 0.5,
iHy = 60, iSy = 0.5, iVy = 0.5
これにより、元画像及びお手本画像のいずれにおいても最も面積が大きい領域のみが変換対象となるから、変換対象とならなかったS値及びV値については変換が行われず、また、H値については変換量を減少させることができる。 As a result, since only the region having the largest area in both the original image and the model image is to be converted, the conversion is not performed for the S value and the V value that are not the conversion target, and the H value is converted. The amount can be reduced.
ここで、B領域のみを変換対象とした場合、図11に示すような色相補正テーブルが作成されることになる。この色相補正テーブルにおいては、色空間上B領域に隣接するC領域におけるH値の代表値(iHc=180,sHc=180)とB領域におけるH値の代表値(iHb,sHb)とが直線で結ばれ、また、色空間上B領域に隣接するM領域におけるH値の代表値(iHm=300,sHm=300)とB領域におけるH値の代表値(iHb,sHb)とが直線で結ばれることになる。 Here, when only the region B is to be converted, a hue correction table as shown in FIG. 11 is created. In this hue correction table, the H value representative value (iHc = 180, sHc = 180) in the C region adjacent to the B region in the color space and the H value representative value (iHb, sHb) in the B region are linear. In addition, the representative value of the H value (iHm = 300, sHm = 300) in the M region adjacent to the B region in the color space and the representative value of the H value in the B region (iHb, sHb) are connected by a straight line. It will be.
このため、H値が180<H≦210のC領域、及びH値が270<H≦300のM領域についても、変換されることになる。この変換量は、B領域に近い値ほど大きくなる。 Therefore, the C region where the H value is 180 <H ≦ 210 and the M region where the H value is 270 <H ≦ 300 are also converted. This conversion amount becomes larger as the value is closer to the B region.
上記のとおり、画像補正処理の第2実施形態においては、変換対象の領域を選択可能であり、また、変換対象ではない領域であっても、色空間上隣接するH値については一部変換されることになるから、変換対象の領域の変換対象ではない領域との間に擬似輪郭(階調とび)が生成されることを防ぐことができる。 As described above, in the second embodiment of the image correction process, a conversion target region can be selected, and even in a region that is not a conversion target, H values adjacent in the color space are partially converted. Therefore, it is possible to prevent a pseudo contour (tone jump) from being generated between the conversion target area and the non-conversion area.
[画像補正処理の第3実施形態]
上記画像補正処理の第2実施形態においては、変換対象としない領域のH値は、変換量が減少させることはできるものの、変換量をゼロとすることはできない。図11に示すように、変換対象としない領域の代表値との線形補間されるため、他の領域の代表値の影響を受けるからである。
[Third Embodiment of Image Correction Processing]
In the second embodiment of the image correction process, although the conversion amount can be reduced, the conversion amount of the H value of the region not to be converted cannot be set to zero. This is because, as shown in FIG. 11, linear interpolation is performed with the representative value of the region not to be converted, and therefore, it is affected by the representative value of the other region.
そこで、図12に示すような色相補正テーブルを採用することができる。図12は、B領域のみを変換対象とした場合の色相補正テーブルである。この図においては、変換対象の領域の数は1つであるが、複数の領域を補正対象とした場合であってもよい。 Therefore, a hue correction table as shown in FIG. 12 can be employed. FIG. 12 is a hue correction table in the case where only the B region is to be converted. In this figure, the number of areas to be converted is one, but a plurality of areas may be targeted for correction.
図12においては、B領域以外のH値は、H’=Hであるから、画像補正は行われない。B領域のH’値については、B領域中の最小値をHmin,B領域中の最大値をHmaxとすれば、以下の式で求めることができる。 In FIG. 12, since the H values other than the B area are H ′ = H, image correction is not performed. The H ′ value in the B region can be obtained by the following equation, where the minimum value in the B region is Hmin and the maximum value in the B region is Hmax.
H<iHのときは、
H’=Hmin+(sHb−Hmin)×(H−Hmin)÷(iHb−Hm in)
When H <iH,
H ′ = Hmin + (sHb−Hmin) × (H−Hmin) ÷ (iHb−Hmin)
H>iHのときは、
H’=sHb+(Hmax−sHb)×(H−iHb)÷(Hmax−iHb)
When H> iH,
H ′ = sHb + (Hmax−sHb) × (H−iHb) ÷ (Hmax−iHb)
この式を用いることにより、変換対象の領域のみを変換することができる。 By using this equation, only the region to be converted can be converted.
上述したとおり、画像補正処理の第3実施形態においては、変換対象のH値のみを変換することができるから、画像補正の効果を大きくすることができる。 As described above, in the third embodiment of the image correction process, since only the H value to be converted can be converted, the effect of image correction can be increased.
[画像補正処理の第4実施形態]
上記画像補正処理の第2実施形態においては、S値及びV値に対し、領域ごとに補正カーブ(変換式)を独立して用いるため、擬似輪郭(階調とび)が生成されるおそれがある。すなわち、図13に示すように、領域ごとに、SとS’との関係を示すテーブルを有しており、隣接する領域におけるテーブルの性質を何ら考慮していない。
[Fourth Embodiment of Image Correction Processing]
In the second embodiment of the image correction process, since a correction curve (conversion formula) is independently used for each region with respect to the S value and the V value, a pseudo contour (tone jump) may be generated. . That is, as shown in FIG. 13, each region has a table indicating the relationship between S and S ′, and no consideration is given to the nature of the table in the adjacent region.
本実施形態においては、図14に示すように、各色領域における補正カーブを滑らかにすることで階調とびを防止できる。 In the present embodiment, as shown in FIG. 14, gradation jumps can be prevented by smoothing the correction curve in each color region.
本実施形態の具体的な処理について以下に説明する。図15及び図16を参照しつつB領域の一部の画像補正処理について説明を行うが、他の領域についても処理の内容は基本的には同じである。
本実施形態における補正されたS値(Sb’’)は、
− 変換対象領域のH値(H)、
− 変換対象とする領域のH値の代表値(Hbmid)、
− 変換対象となる画素のH値の色相座標位置に近い側の隣接領域(この場合は、C領
域)にH値の代表値(Hcmid)、
− 上記式(2)に対応する変換式で変換された(すなわち、B領域の彩度補正テーブ
ルを用いて算出された)変換対象領域のS値(Sb’、Hbmidに対応するもの)、
− 上記式(3)に対応する変換式で変換された(すなわち、C領域の彩度補正テーブ
ルを用いて算出された)隣接する領域のS値(Sc’、Hcidに対応するもの)、
を用いて、以下の式で求めることができる。
Specific processing of this embodiment will be described below. The image correction process for a part of the area B will be described with reference to FIGS. 15 and 16, but the contents of the process are basically the same for the other areas.
The corrected S value (Sb ″) in this embodiment is
-H value (H) of the conversion target area,
-H value representative value (Hbmid) of the area to be converted,
A representative value (Hcmid) of the H value in the adjacent region (in this case, the C region) closer to the hue coordinate position of the H value of the pixel to be converted;
-S value (corresponding to Sb ', Hbmid) of the conversion target area converted by the conversion formula corresponding to the above formula (2) (that is, calculated using the saturation correction table of the B area),
-S value of the adjacent area (which corresponds to Sc ', Hcid) converted by the conversion formula corresponding to the above formula (3) (that is, calculated using the saturation correction table of the C area),
Can be obtained by the following equation.
Sb’’ = {(H−Hcmid)×Sb’+(Hbmid−H)×Sc’}÷
{(Hbmid−Hcmid)} ・・・(式7)
Sb ″ = {(H−Hcmid) × Sb ′ + (Hbmid−H) × Sc ′} ÷
{(Hbmid−Hcmid)} (Expression 7)
また、本実施形態における補正されたV値(Vb’’)は、
− 変換対象領域のH値(H)、
− 変換対象とする領域のH値の代表値(Hbmid)、
− 変換対象となる画素のH値の色相座標位置に近い側の隣接領域(この場合は、C領
域)にH値の代表値(Hcmid)、
− 上記式(4)に対応する変換式で変換された(すなわち、B領域の明度補正テーブ
ルを用いて算出された)変換対象領域のV値(Vb’、Hbmidに対応するもの)、
− 上記式(5)に対応する変換式で変換された(すなわち、C領域の明度補正テーブ
ルを用いて算出された)隣接する領域のS値(Vc’、Hcidに対応するもの)、
を用いて、以下の式で求めることができる。
Further, the corrected V value (Vb ″) in the present embodiment is
-H value (H) of the conversion target area,
-H value representative value (Hbmid) of the area to be converted,
A representative value (Hcmid) of the H value in the adjacent region (in this case, the C region) closer to the hue coordinate position of the H value of the pixel to be converted;
-V value (corresponding to Vb ', Hbmid) of the conversion target area converted by the conversion formula corresponding to the above formula (4) (that is, calculated using the brightness correction table of the B area),
-S value of the adjacent area (that corresponds to Vc ', Hcid) converted by the conversion formula corresponding to the above formula (5) (that is, calculated using the brightness correction table of the C area),
Can be obtained by the following equation.
Vb’’ = {(H−Hcmid)×Vb’+(Hbmid−H)×Vc’}÷
{(Hbmid−Hcmid)} ・・・(式8)
Vb ″ = {(H−Hcmid) × Vb ′ + (Hbmid−H) × Vc ′} ÷
{(Hbmid−Hcmid)} (Equation 8)
上述した処理を、図17に示されるB領域の一部(H値の範囲:210<H≦240)及びC領域の一部(H値の範囲180<H≦210)に対して行う。これにより、入力の色相値(H)に応じた重み付け計算により、出力の彩度値(S’’)及び明度値(V’’)
を求めることにより、各色相間の補正効果を滑らかにすることができる。
The above-described processing is performed on part of the B region (H value range: 210 <H ≦ 240) and part of the C region (H value range 180 <H ≦ 210) shown in FIG. Thus, the saturation value (S ″) and the lightness value (V ″) of the output are calculated by weighting calculation according to the hue value (H) of the input.
Thus, the correction effect between the hues can be smoothed.
[補正イメージ作成の第2実施形態]
上述した本発明の第1実施形態においては、記憶したサンプル画像を用いて補正イメージを作成した。以下に示す補正イメージ作成の第2実施形態においては、サンプル画像を使用せずに、特徴量が示す画像補正の内容をユーザが直感的に把握できるよう提示するものである。基本的な処理の流れは、図4と同じであるが、S14における補正イメージ特定の処理が異なるので、この点について詳細に説明する。
[Second Embodiment of Correction Image Creation]
In the first embodiment of the present invention described above, a correction image is created using the stored sample image. In the second embodiment for creating a corrected image shown below, the sample image is presented so that the user can intuitively understand the content of the image correction indicated by the feature amount without using the sample image. The basic processing flow is the same as that in FIG. 4, but the correction image specifying processing in S14 is different, and this point will be described in detail.
本実施形態においては、内部メモリには、図18に示すとおり、複数の第1特徴量のみが記憶されている。すなわち、サンプル画像は記憶されていない。 In the present embodiment, the internal memory stores only a plurality of first feature amounts as shown in FIG. That is, the sample image is not stored.
次に、パッチ画像の生成方法について説明する。上述したとおり、第1特徴量には、それぞれの色領域におけるH値、S値、V値の代表値が含まれるのでこの情報を利用する。図19に示すような6つの領域を有するパッチ画像を生成する。そして、6つの領域のそれぞれは、第1特徴量に含まれるH値、S値、V値の代表値によって決定される単色である。このパッチ画像を提示することにより、ユーザはどのような画像補正が行われるかを把握することができる。ここで、画像中に占める面積の割合が所定量より小さい領域について画像補正しない場合には、図20に示すように、画像補正の対象ではない色領域を表示しないよう構成してもよい。 Next, a patch image generation method will be described. As described above, since the first feature amount includes representative values of the H value, S value, and V value in each color region, this information is used. A patch image having six regions as shown in FIG. 19 is generated. Each of the six areas is a single color determined by the representative values of the H value, S value, and V value included in the first feature amount. By presenting this patch image, the user can grasp what kind of image correction is performed. Here, in a case where image correction is not performed for an area in which the proportion of the area in the image is smaller than a predetermined amount, a color area that is not a target for image correction may not be displayed as shown in FIG.
なお、図20に示す例においては、Y領域が画像補正されないことを示している。また、6つの色領域の配置は単なる一例であり、他の配置でもよい。本実施形態によれば、特徴量のみでパッチ画像を生成することができ、ユーザは画像補正のイメージを把握することができる。 In the example shown in FIG. 20, the Y region is not corrected. Further, the arrangement of the six color regions is merely an example, and other arrangements may be used. According to the present embodiment, a patch image can be generated using only the feature amount, and the user can grasp an image for image correction.
また、パッチ画像の生成において、表示色の表示割合を、第1特徴量が有する領域の割合としてもよい。図21に、第1特徴量が有する領域の割合を反映させたパッチ画像の一例を示す。図21においては、B領域が大きく、Y領域が狭いサンプル画像から取得した特徴量であることを直感的に把握することができる。 Further, in the generation of the patch image, the display ratio of the display color may be the ratio of the area that the first feature amount has. FIG. 21 shows an example of a patch image that reflects the proportion of the area of the first feature amount. In FIG. 21, it can be intuitively understood that the feature amount is obtained from a sample image having a large B area and a narrow Y area.
また、円グラフではなく、図21に示すように、棒状のものでもよい。 Further, instead of a pie chart, a bar-shaped one may be used as shown in FIG.
上述したパッチ画像を利用した補正イメージの提示においては、ユーザは画像補正されるお手本の色の分布を直感的に把握することができる。 In presenting the correction image using the above-described patch image, the user can intuitively grasp the color distribution of the model whose image is corrected.
また、本発明における画像補正処理によれば、例えば、元画像として建物と空が写っている元画像に対し、空の青を鮮やかな海の青に変換したい場合は、お手本画像として鮮やかな海の写っている写真をスキャナで読み込むという作業によって、元画像の青色が鮮やかな海の青に補正することができる。 Further, according to the image correction processing of the present invention, for example, when it is desired to convert the sky blue to the vivid sea blue with respect to the original image in which the building and the sky are captured as the original image, You can correct the blue color of the original image to the bright blue of the ocean by reading the photo with the scanner.
また、人の顔が映っている画像において、肌色を明るくしたい場合は、明るい肌色として移っている手のひら等の写真をスキャナで読み込むという作業によって、元画像の肌色を明るい肌色に補正することができる。 Also, if you want to brighten the skin color in an image showing a human face, you can correct the skin color of the original image to a light skin color by reading a picture of the palm that has moved to a bright skin color with a scanner. .
ユーザは、パラメータの入力等の必要がないので、何ら専門的な知識が必要とせず、画像補正のお手本となる画像を読み取らせるだけで、所望の画像補正を行うことができる。さらに、画像補正を行う領域を自動的に選択可能であるので、知覚されにくい領域の補正を中止または低減し、知覚されやすい領域のみを補正することもできる。 Since the user does not need to input parameters or the like, he / she does not need any specialized knowledge and can perform desired image correction only by reading an image serving as a model for image correction. Furthermore, since it is possible to automatically select a region to be subjected to image correction, it is possible to stop or reduce correction of regions that are difficult to perceive, and to correct only regions that are easily perceived.
なお、本発明は前記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。例えば、スキャナからお手本画像を読み取ることに代えて、記憶媒体よりお手本画像として画像を読み取ることもできる。また、記憶媒体から元画像を読み取ることに代えて、スキャナより元画像を読み込むこともできる。例えば、画像処理装置として、スキャナおよびプリンタが搭載された複合機を実施形態としてあげたが、これに限らず、例えば、パーソナルコンピュータのような情報処理装置にて、画像補正を行い、情報処理装置に接続されたプリンタに印刷処理を行わせる構成であってもよい。 In addition, this invention is not limited to the said embodiment, Of course, various improvement and deformation | transformation are possible within the range which does not deviate from the summary of this invention. For example, instead of reading a model image from a scanner, the image can be read as a model image from a storage medium. Further, instead of reading the original image from the storage medium, the original image can be read from the scanner. For example, a multifunction machine equipped with a scanner and a printer is described as an embodiment as an image processing apparatus. However, the present invention is not limited to this. For example, an information processing apparatus such as a personal computer performs image correction, and the information processing apparatus. The printer may be configured to perform printing processing.
また、上述したフローチャートは単なる一例であり、上記処理と同等の結果を得ることできる処理であれば、他のフローチャートによって処理を実現してもよい。 Further, the above-described flowchart is merely an example, and the process may be realized by another flowchart as long as it can obtain a result equivalent to the above-described process.
また、上述した処理を実行するための画像処理方法としても本発明は実現可能である。さらに、当該画像処理方法をコンピュータで実行させるためのプログラム、及び、そのプログラムが記録された記録媒体としても本発明は実現可能である。 The present invention can also be realized as an image processing method for executing the above-described processing. Further, the present invention can be realized as a program for causing the computer to execute the image processing method and a recording medium on which the program is recorded.
さらに、補正された元画像を印刷するのみならず、記憶媒体に記憶したり、他の装置に送信することも可能である。 Furthermore, not only can the corrected original image be printed, but it can also be stored in a storage medium or transmitted to another device.
1 画像処理装置
2 スキャナ
3 メモリスロット
4 操作パネル
5 排出口
6 表示手段
10 プリンタ
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Scanner 3 Memory slot 4 Operation panel 5 Ejection port 6 Display means 10 Printer
Claims (15)
前記特徴量記憶手段は、1又は複数種類の第1画像から抽出された1又は複数種類の第1特徴量であって、前記第1画像の色合いに関する第1の代表値であり、色情報に基づいて分割される領域ごとに特定される前記第1の代表値を含む前記第1特徴量を記憶し、
前記画像取得手段は、第2画像を取得し、
前記画像記憶手段は、第3画像を記憶し、
前記特徴量抽出手段は、前記第2画像に基いて、前記第2画像の色合いに関する第2の代表値であり、前記領域ごとに特定される前記第2の代表値を含む第2特徴量を抽出し、
前記画像補正手段は、前記特徴量記憶手段に記憶された前記第1特徴量及び前記第3画像から抽出された第3特徴量であって、前記第3画像の色合いに関する第3の代表値であり、前記領域ごとに特定される前記第3の代表値を含む前記第3特徴量に基いて、前記第3代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第3代表値以外の値については、補間することにより、前記第3画像を画像補正し、
前記表示手段は、前記画像補正された第3画像を表示し、
前記画像補正手段は、ユーザによる所定の入力に応じて、1つの画像補正された第3画像を特定し、当該特定された第3画像の画像補正に用いられた前記第1特徴量及び前記第2特徴量に基いて、前記第2代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第2代表値以外の値については、補間することにより、前記第2画像を画像補正する、
ことを特徴とする画像処理装置。 In an image processing apparatus comprising feature amount storage means, image acquisition means, image storage means, feature amount extraction means, image correction means, and display means,
The feature amount storage means is one or more types of first feature amounts extracted from one or more types of first images, is a first representative value relating to the hue of the first image, and includes color information. Storing the first feature amount including the first representative value specified for each region divided based on
The image acquisition means acquires a second image,
The image storage means stores a third image,
The feature quantity extraction means is a second representative value that is a second representative value related to the hue of the second image based on the second image and includes the second representative value specified for each region. Extract and
The image correction means is a third feature value extracted from the first feature quantity and the third image stored in the feature quantity storage means, and a third representative value relating to a hue of the third image. Yes, based on the third feature value including the third representative value specified for each region , the third representative value is corrected to the first representative value specified for the same region. For the values other than the third representative value, the third image is corrected by interpolation ,
The display means displays the third image after the image correction,
The image correction means identifies a third image that has been subjected to image correction in response to a predetermined input by a user, and the first feature amount used for image correction of the identified third image and the first image Based on two feature quantities, the second representative value is corrected to the first representative value specified for the same region, and values other than the second representative value are interpolated, thereby Correcting the second image,
An image processing apparatus.
前記特徴量記憶手段は、1又は複数種類の第1画像から抽出された1又は複数種類の第1特徴量であって、前記第1画像の色合いに関する第1の代表値であり、色情報に基づいて分割される領域ごとに特定される前記第1の代表値を含む前記第1特徴量を記憶し、
前記画像取得手段は、第2画像を取得し、
前記特徴量抽出手段は、前記第2画像に基いて、前記第2画像の色合いに関する第2の代表値であり、前記領域ごとに特定される前記第2の代表値を含む第2特徴量を抽出し、
前記画像生成手段は、前記第1特徴量に基いて、複数個の色領域を含む第3画像であって、前記色領域それぞれは、前記第1特徴量に含まれる前記第1の代表値によって決定される単色を示す前記第3画像を生成し、
前記表示手段は、前記第3画像を表示し、
前記特徴量選択手段は、ユーザによって選択された第3画像の作成に用いられた前記第1特徴量を選択し、
前記画像補正手段は、前記選択された第1特徴量及び前記第2特徴量に基いて、前記第2代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第2代表値以外の値については、補間することにより、前記第2画像を画像補正する、
ことを特徴とする画像処理装置。 In an image processing apparatus including a feature amount storage unit, an image acquisition unit, a feature amount extraction unit, an image generation unit, a display unit, a feature amount selection unit, and an image correction unit.
The feature amount storage means is one or more types of first feature amounts extracted from one or more types of first images, is a first representative value relating to the hue of the first image, and includes color information. Storing the first feature amount including the first representative value specified for each region divided based on
The image acquisition means acquires a second image,
The feature quantity extraction means is a second representative value that is a second representative value related to the hue of the second image based on the second image and includes the second representative value specified for each region. Extract and
The image generation means is a third image including a plurality of color regions based on the first feature amount, and each of the color regions is based on the first representative value included in the first feature amount. Generating the third image showing a single color to be determined ;
The display means displays the third image;
The feature amount selecting means selects the first feature amount used for creating the third image selected by the user,
The image correcting unit corrects the second representative value to the first representative value specified for the same region based on the selected first feature value and the second feature value, For values other than the second representative value, the second image is corrected by interpolation .
An image processing apparatus.
当該色相に関する特徴量に基いて前記第1画像を複数の領域に分割し、
当該分割した領域ごとに、色相以外に関する特徴量が抽出され、
当該分割した領域ごとに、色相以外に関する特徴量の代表値が抽出され、
前記第1特徴量は、前記色相に関する特徴量の代表値及び前記色相以外に関する特徴量の代表値であり、
前記画像生成手段は、前記第1特徴量に基いて表示色を決定し、前記複数の領域の分割数と同じ個数の表示色からなる画像を生成する、
ことを特徴とする請求項3記載の画像処理装置。 A feature quantity related to hue is extracted from the first image,
Dividing the first image into a plurality of regions based on a feature amount relating to the hue;
For each of the divided areas, feature values related to other than hue are extracted,
For each of the divided areas, a representative value of a feature value related to other than hue is extracted,
The first feature amount is a representative value of a feature amount related to the hue and a representative value of a feature amount related to other than the hue,
The image generation means determines a display color based on the first feature amount, and generates an image having the same number of display colors as the number of divisions of the plurality of regions.
The image processing apparatus according to claim 3.
前記第3画像を構成する表示色の面積の割合は、前記第1画像全体に占める割合と同一である、
ことを特徴とする請求項4記載の画像処理装置。 The feature amount related to the hue includes, for each hue, the ratio of the region in the entire first image in which the region of the hue is the basis of the feature amount,
The ratio of the display color area constituting the third image is the same as the ratio of the entire first image.
The image processing apparatus according to claim 4.
ことを特徴とする請求項4または5に記載の画像処理装置。 The feature amount related to other than the hue is a feature amount related to lightness and / or saturation.
The image processing apparatus according to claim 4, wherein
ことを特徴とする請求項5または6に記載の画像処理装置。 The display color corresponding to the area where the ratio of the area occupying the entire first image is equal to or less than the predetermined amount, and the display color corresponding to the area where the ratio of the area occupying the entire second image is equal to or less than the predetermined amount Exclude from
The image processing apparatus according to claim 5, wherein the image processing apparatus is an image processing apparatus.
前記画像補正手段は、前記補正データに基づいて前記第2画像を画像補正する、
ことを特徴とする請求項1〜7いずれかに記載の画像処理装置。 Correction data creating means for creating correction data based on the first feature quantity and the second feature quantity;
The image correcting means corrects the second image based on the correction data;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記補正データ作成手段は、
前記第1画像を分割した領域ごとに、前記色相に関する特徴量の代表値、及び、前記色相以外に関する特徴量を抽出し、
前記第2画像を分割した領域ごとに、前記色相に関する特徴量の代表値、及び前記色相以外に関する特徴量を抽出し、
前記第1画像の色相に関する特徴量の代表値及び前記第2画像の色相に関する特徴量の代表値に基いて色相補正データを作成し、
前記画像補正手段は、
前記第2画像の画素ごとの色相に関する特徴量を、前記色相補正データに基いて補正し、
前記第2画像の画素ごとの色相以外に関する特徴量を、前記領域ごとの代表値に基いて補正する、
ことを特徴とする請求項1〜7のいずれかに記載の画像処理装置。 Correction data creating means,
The correction data creating means includes
For each region obtained by dividing the first image, extract a representative value of the feature value related to the hue and a feature value related to other than the hue,
For each region obtained by dividing the second image, extract a representative value of the feature value related to the hue and a feature value related to other than the hue,
Creating hue correction data based on the representative value of the feature quantity related to the hue of the first image and the representative value of the feature quantity related to the hue of the second image;
The image correcting means includes
Correcting a feature amount related to a hue for each pixel of the second image based on the hue correction data;
Correcting a feature amount related to other than the hue for each pixel of the second image based on a representative value for each region;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記印刷制御手段は、前記画像補正された第2画像を印刷するための処理を行う、
ことを特徴とする請求項1〜9のいずれかに記載の画像処理装置。 A printing control unit;
The print control means performs a process for printing the second image after the image correction;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
ことを特徴とする請求項4〜10に記載の画像処理装置。 The feature amount related to the hue is calculated based on the H value in the HSV space.
The image processing apparatus according to claim 4, wherein the image processing apparatus is an image processing apparatus.
第2画像を取得する画像取得ステップ、
前記第2画像に基いて、前記第2画像の色合いに関する第2の代表値であり、前記領域ごとに特定される前記第2の代表値を含む第2特徴量を抽出する特徴量抽出ステップ、
前記補正された第3画像を表示する表示ステップ、
ユーザによる所定の入力に応じて、1つの画像補正された第3画像を特定し、当該特定された第3画像の画像補正に用いられた前記第1特徴量及び前記第2特徴量に基いて、前記第2代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第2代表値以外の値については、補間することにより、前記第2画像を画像補正する第2画像ステップ、
からなる画像処理方法。 The first feature value stored in the feature value storage means, which is a first representative value relating to the hue of the first image, and is specified for each region divided based on the color information Including the first feature amount and the third feature amount extracted from the third image stored in the image storage means, and a third representative value relating to the hue of the third image, and the region Based on the third feature value including the third representative value specified for each, the third representative value is corrected to the first representative value specified for the same region, For values other than the three representative values, a third image correction step for correcting the third image by interpolation;
An image acquisition step of acquiring a second image;
A feature quantity extraction step for extracting a second feature quantity that is a second representative value related to the hue of the second image and includes the second representative value specified for each region based on the second image ;
Display step of displaying the third image that is pre-Symbol corrected,
In response to a predetermined input by the user, one image-corrected third image is specified, and based on the first feature value and the second feature value used for image correction of the specified third image. The second representative value is corrected to the first representative value specified for the same region, and the second image is corrected by interpolating values other than the second representative value. A second image step,
An image processing method comprising:
第2画像を取得する画像取得ステップ、
前記第2画像に基いて、前記第2画像の色合いに関する第2の代表値であり、前記領域ごとに特定される前記第2の代表値を含む第2特徴量を抽出する特徴量抽出ステップ、
前記第3画像を表示する表示ステップ、
ユーザによって選択された第3画像の作成に用いられた前記第1特徴量を選択する特徴量選択ステップ、
前記選択された第1特徴量及び前記第2特徴量に基いて、前記第2代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第2代表値以外の値については、補間することにより、前記第2画像を画像補正する画像補正ステップ、
からなる画像処理方法。 The first feature value stored in the feature value storage means, which is a first representative value related to the hue of the first image, and is specified for each region to be divided based on color information A third image including a plurality of color regions based on the first feature amount including a value, wherein each of the color regions is determined by the first representative value included in the first feature amount. An image generating step for generating the third image showing a single color;
An image acquisition step of acquiring a second image;
A feature quantity extraction step for extracting a second feature quantity that is a second representative value related to the hue of the second image and includes the second representative value specified for each region based on the second image ;
Display step of displaying the pre-Symbol third image,
A feature amount selection step of selecting the first feature amount used to create the third image selected by the user;
Based on the selected first feature value and the second feature value, the second representative value is corrected to the first representative value specified for the same region, and other than the second representative value. An image correction step for correcting the second image by interpolation ,
An image processing method comprising:
特徴量記憶手段に記憶された第1特徴量であって、第1画像の色合いに関する第1の代表値であり、色情報に基づいて分割される領域ごとに特定される前記第1の代表値を含む前記第1特徴量、及び、画像記憶手段に記憶されている第3画像から抽出された第3特徴量であって、前記第3画像の色合いに関する第3の代表値であり、前記領域ごとに特定される前記第3の代表値を含む前記第3特徴量に基いて、前記第3代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第3代表値以外の値については、補間することにより、前記第3画像を補正する第3画像補正ステップ、
第2画像を取得する画像取得ステップ、
前記第2画像に基いて、前記第2画像の色合いに関する第2の代表値であり、前記領域ごとに特定される前記第2の代表値を含む第2特徴量を抽出する特徴量抽出ステップ、
前記補正された第3画像を表示する表示ステップ、
ユーザによる所定の入力に応じて、1つの画像補正された第3画像を特定し、当該特定された第3画像の画像補正に用いられた前記第1特徴量及び前記第2特徴量に基いて、前記第2代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第2代表値以外の値については、補間することにより、前記第2画像を画像補正する第2画像補正ステップ、
を実行させるための画像処理プログラム。 On the computer,
The first feature value stored in the feature value storage means, which is a first representative value relating to the hue of the first image, and is specified for each region divided based on the color information Including the first feature amount and the third feature amount extracted from the third image stored in the image storage means, and a third representative value relating to the hue of the third image, and the region Based on the third feature value including the third representative value specified for each, the third representative value is corrected to the first representative value specified for the same region, For values other than the three representative values, a third image correction step for correcting the third image by interpolation;
An image acquisition step of acquiring a second image;
A feature quantity extraction step for extracting a second feature quantity that is a second representative value related to the hue of the second image and includes the second representative value specified for each region based on the second image ;
Display step of displaying the third image that is pre-Symbol corrected,
In response to a predetermined input by the user, one image-corrected third image is specified, and based on the first feature value and the second feature value used for image correction of the specified third image. The second representative value is corrected to the first representative value specified for the same region, and the second image is corrected by interpolating values other than the second representative value. A second image correction step,
An image processing program for executing
特徴量記憶手段に記憶されている第1特徴量であって、第1画像の色合いに関する第1の代表値であり、色情報に基づいて分割される領域ごとに特定される前記第1の代表値を含む前記第1特徴量に基いて、複数個の色領域を含む第3画像であって、前記色領域それぞれは、前記第1特徴量に含まれる前記第1の代表値によって決定される単色を示す前記第3画像を生成する画像生成ステップ、
第2画像を取得する画像取得ステップ、
前記第2画像に基いて、前記第2画像の色合いに関する第2の代表値であり、前記領域ごとに特定される前記第2の代表値を含む第2特徴量を抽出する特徴量抽出ステップ、
前記第3画像を表示する表示ステップ、
ユーザによって選択された第3画像の作成に用いられた前記第1特徴量を選択する特徴量選択ステップ、
前記選択された第1特徴量及び前記第2特徴量に基いて、前記第2代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第2代表値以外の値については、補間することにより、前記第2画像を画像補正する画像補正ステップ、
を実行させるための画像処理プログラム。 On the computer,
The first feature value stored in the feature value storage means, which is a first representative value related to the hue of the first image, and is specified for each region to be divided based on color information A third image including a plurality of color regions based on the first feature amount including a value, wherein each of the color regions is determined by the first representative value included in the first feature amount. An image generating step for generating the third image showing a single color;
An image acquisition step of acquiring a second image;
A feature quantity extraction step for extracting a second feature quantity that is a second representative value related to the hue of the second image and includes the second representative value specified for each region based on the second image ;
Display step of displaying the pre-Symbol third image,
A feature amount selection step of selecting the first feature amount used to create the third image selected by the user;
Based on the selected first feature value and the second feature value, the second representative value is corrected to the first representative value specified for the same region, and other than the second representative value. An image correction step for correcting the second image by interpolation ,
An image processing program for executing
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007226587A JP4831020B2 (en) | 2007-08-31 | 2007-08-31 | Image processing apparatus, image processing method, and image processing program |
US12/202,971 US8094343B2 (en) | 2007-08-31 | 2008-09-02 | Image processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007226587A JP4831020B2 (en) | 2007-08-31 | 2007-08-31 | Image processing apparatus, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009060432A JP2009060432A (en) | 2009-03-19 |
JP4831020B2 true JP4831020B2 (en) | 2011-12-07 |
Family
ID=40555744
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007226587A Expired - Fee Related JP4831020B2 (en) | 2007-08-31 | 2007-08-31 | Image processing apparatus, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4831020B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5598727B2 (en) * | 2011-02-17 | 2014-10-01 | 京セラドキュメントソリューションズ株式会社 | Image processing device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1198374A (en) * | 1997-09-24 | 1999-04-09 | Konica Corp | Method and device for correcting color |
JP3991196B2 (en) * | 2001-12-18 | 2007-10-17 | 富士ゼロックス株式会社 | Image processing system and image processing server |
JP2005202469A (en) * | 2004-01-13 | 2005-07-28 | Fuji Xerox Co Ltd | Image processor, image processing method and program |
-
2007
- 2007-08-31 JP JP2007226587A patent/JP4831020B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009060432A (en) | 2009-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4442664B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP5116393B2 (en) | Image processing apparatus and image processing method | |
JP4375781B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
US20090027732A1 (en) | Image processing apparatus, image processing method, and computer program | |
US8174731B2 (en) | Image processing device outputting image for selecting sample image for image correction | |
KR20000052475A (en) | Image processing method and apparatus, image processing system, and storage medium | |
US9001376B2 (en) | Image processing apparatus, image processing method, print order receiving apparatus, and print order receiving method | |
US8633943B2 (en) | Image display apparatus, image display method, and program storage medium for arranging and displaying images of a plurality of tones | |
JP4389977B2 (en) | Image printing apparatus, image printing method, and image printing program | |
JP4985243B2 (en) | Image processing apparatus and image processing program | |
JP2008147978A (en) | Image processor and image processing method | |
JP4433017B2 (en) | Image processing apparatus and image processing program | |
JP4831020B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2000182045A (en) | Method and picture for processing picture, picture processing system and recording medium | |
US20090059263A1 (en) | Image processor | |
JP4442665B2 (en) | Image processing apparatus and image processing program | |
JP4826562B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US8159716B2 (en) | Image processing device performing image correction by using a plurality of sample images | |
JP4831019B2 (en) | Image processing apparatus, image processing method, and image processing printing program | |
JP2009060390A (en) | Image processor, and image processing program | |
JP4840295B2 (en) | Image processing apparatus and image processing program | |
JP5045836B2 (en) | Image processing apparatus and image processing program | |
JP4442663B2 (en) | Image processing apparatus and image processing program | |
JP5116873B2 (en) | Image processing apparatus and image processing method | |
JP5158363B2 (en) | Image processing apparatus, image processing method, program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110601 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110607 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110823 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110905 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4831020 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140930 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |