JP4831019B2 - Image processing apparatus, image processing method, and image processing printing program - Google Patents

Image processing apparatus, image processing method, and image processing printing program Download PDF

Info

Publication number
JP4831019B2
JP4831019B2 JP2007226584A JP2007226584A JP4831019B2 JP 4831019 B2 JP4831019 B2 JP 4831019B2 JP 2007226584 A JP2007226584 A JP 2007226584A JP 2007226584 A JP2007226584 A JP 2007226584A JP 4831019 B2 JP4831019 B2 JP 4831019B2
Authority
JP
Japan
Prior art keywords
image
hue
feature
value
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007226584A
Other languages
Japanese (ja)
Other versions
JP2009060429A (en
Inventor
智彦 長谷川
真樹 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2007226584A priority Critical patent/JP4831019B2/en
Priority to US12/202,872 priority patent/US8174731B2/en
Publication of JP2009060429A publication Critical patent/JP2009060429A/en
Application granted granted Critical
Publication of JP4831019B2 publication Critical patent/JP4831019B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

本発明は、容易な操作で画像補正をすることが可能な画像処理装置等に関する。   The present invention relates to an image processing apparatus capable of correcting an image with an easy operation.

デジタルカメラ等の普及に伴い、個人で撮影した画像を家庭用印刷装置で印刷することが普及している。また、印刷媒体に記憶された画像を家庭用印刷装置で印刷(複写)することも普及している。このような場合、取得した画像が所望の色味や色調でない場合は、印刷前に当該画像の画像補正をすることが望まれている。   With the popularization of digital cameras and the like, it has become popular to print images taken by individuals using a home printing device. In addition, printing (copying) an image stored on a print medium with a home printing apparatus is also widespread. In such a case, if the acquired image does not have a desired color or tone, it is desired to correct the image before printing.

ここで、例えば、下記特許文献1には、画像調整することが可能な印刷装置が開示されている。この印刷装置では、取得した画像の画質を調整するために、調整用データを入力する必要がある。   Here, for example, Patent Document 1 below discloses a printing apparatus capable of image adjustment. In this printing apparatus, it is necessary to input adjustment data in order to adjust the image quality of the acquired image.

特開2007−89179号公報JP 2007-89179 A

上記のような印刷装置においては、画像の調整を行うために、具体的なデータを入力する必要があるため、画像に関する知識が必要となり感覚的な色調整を行うことができない。また、上記文献においては、調整用データを選択ないし設定する必要があるため、簡易な操作ではない。また、色補正のお手本の画像を選択することを考えた場合、簡易な操作が望まれることはもとより、お手本の画像を記憶するための容量をできるだけ少なくする必要がある。   In the printing apparatus as described above, it is necessary to input specific data in order to adjust the image, so knowledge about the image is required, and sensory color adjustment cannot be performed. Further, in the above document, since it is necessary to select or set adjustment data, it is not a simple operation. Further, when considering selecting a model image for color correction, it is necessary to reduce the capacity for storing the model image as much as possible as well as a simple operation is desired.

そこで本発明は、上記課題を解決するため、容易な操作で、感覚的に所望の画像補正が可能な画像処理装置、画像処理方法、画像処理印刷プログラムを提供することを目的とする。   In order to solve the above problems, an object of the present invention is to provide an image processing apparatus, an image processing method, and an image processing printing program capable of performing desired image correction with a simple operation.

上記目的を達成するため、請求項1に係る発明は、記憶手段、表示手段、画像特定手段、画像取得手段、特徴量抽出手段、画像補正手段を備える画像処理装置において、前記記憶手段は、複数種類の第1画像それぞれについて、当該第1画像から抽出された第1特徴量であって、前記第1画像の色合いに関する第1の代表値であり、色情報に基づいて分割される領域ごとに特定される前記第1の代表値を含む前記第1特徴量当該第1画像を縮小して作成した第3画像とを対応付けて記憶し、前記表示手段は、前記記憶手段に記憶された複数の前記第3画像を表示部に表示し、前記画像特定手段は、ユーザからの入力に応じて、前記複数の第3画像から1つの第3画像を特定し、前記画像取得手段は、第2画像を取得し、前記特徴量抽出手段は、前記第2画像に基いて、前記第2画像の色合いに関する第2の代表値であり、前記領域ごとに特定される前記第2の代表値を含む第2特徴量を抽出し、前記画像補正変換手段は、前記特定手段により特定された1つの第3画像に対応する前記第1特徴量及び前記第2特徴量に基いて、前記第2代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第2代表値以外の値については、補間することにより、前記第2画像を画像補正することを特徴とする。 In order to achieve the above object, an invention according to claim 1 is an image processing apparatus comprising storage means, display means, image specifying means, image acquisition means, feature amount extraction means, and image correction means, wherein the storage means includes a plurality of storage means. For each type of first image, the first feature value extracted from the first image, which is a first representative value relating to the hue of the first image, and for each region divided based on color information said first feature quantity including a first representative value which is specified, the third image first image created by reducing the, in association with the display means, stored in said storage means The plurality of third images thus displayed are displayed on a display unit, and the image specifying unit specifies one third image from the plurality of third images in response to an input from a user, and the image acquisition unit includes: The second image is acquired and the feature amount is extracted Stage, on the basis of the second image is a second representative values for hue of the second image, extracting a second feature quantity including a second representative value which is specified for each said region, said The image correction conversion means specifies the same region with respect to the second representative value based on the first feature value and the second feature value corresponding to one third image specified by the specifying means. The second image is corrected to the first representative value, and the second image is corrected by interpolating values other than the second representative value .

請求項2に係る発明は、請求項1の画像処理装置において、前記第1特徴量及び前記第2特徴量に基づいて、補正データを作成する補正データ作成手段を備え、前記画像補正手段は、前記補正データに基づいて前記第2画像を画像補正することを特徴とする。   The invention according to claim 2 is the image processing apparatus according to claim 1, further comprising correction data generation means for generating correction data based on the first feature quantity and the second feature quantity, wherein the image correction means includes: The second image is image-corrected based on the correction data.

請求項3に係る発明は、請求項1または2の画像処理装置において、前記特徴量抽出手段は、前記第2画像から色相に関する特徴量を抽出し、当該色相に関する特徴量に基いて前記第2画像を複数の領域に分割し、分割した領域ごとに色相以外に関する特徴量を抽出し、前記第2特徴量は、前記色相に関する特徴量及び前記色相以外に関する特徴量であり、前記第1特徴量は、前記第2特徴量と同種類の特徴量を有し、前記色相に関する特徴量には、色相ごとに、当該特徴量の基となった前記第1画像全体に占める領域の割合が含まれ、色相特定手段をさらに有し、前記色相特定手段は、前記第2画像が分割された複数の領域のうち、最も大きい面積を有する領域の色相を特定色相として特定し、当該特定色相の領域が前記第2画像中に占める割合を特定色相割合として特定し、前記表示手段は、前記特定色相割合に近い前記特定色相の領域の割合を有した前記第1特徴量に対応した第3画像ほど優先して表示することを特徴とする。   According to a third aspect of the present invention, in the image processing apparatus according to the first or second aspect, the feature amount extraction unit extracts a feature amount related to a hue from the second image, and the second feature based on the feature amount related to the hue. The image is divided into a plurality of regions, and feature amounts related to other than hue are extracted for each of the divided regions, and the second feature amount is a feature amount related to the hue and feature amount other than the hue, and the first feature amount Has the same type of feature quantity as the second feature quantity, and the feature quantity related to the hue includes the ratio of the area in the entire first image that is the basis of the feature quantity for each hue. The hue specifying unit further specifies a hue of a region having the largest area among the plurality of regions into which the second image is divided as a specific hue, and the region of the specific hue is Occupied in the second image The ratio is specified as a specific hue ratio, and the display unit preferentially displays the third image corresponding to the first feature amount having the ratio of the specific hue area close to the specific hue ratio. And

請求項4に係る発明は、請求項1または2の画像処理装置において、前記特徴量抽出手段は、前記第2画像から色相に関する特徴量を抽出し、当該色相に関する特徴量に基いて前記第2画像を複数の領域に分割し、分割した領域ごとに色相以外に関する特徴量を抽出し、前記第2特徴量は、前記色相に関する特徴量及び前記色相以外に関する特徴量であり、前記第1特徴量は、前記第2特徴量と同種類の特徴量を有し、前記色相に関する特徴量には、色相ごとに、当該特徴量の基となった前記第1画像全体に占める領域の割合が含まれ、前記複数の第1画像それぞれから抽出された第1特徴量は、上記割合が最も大きい領域の色相に基いてグループ化されており、色相特定手段をさらに有し、前記色相特定手段は、前記第2画像が分割された複数の領域のうち、最も大きい面積を有する領域の色相を特定色相として特定し、当該特定色相の領域が前記第2画像中に占める割合を特定色相割合として特定し、前記表示手段は、前記特定色相に対応するグループに存在し、かつ、前記特定色相割合に近い前記特定色相の領域の割合を有した前記第1特徴量に対応した第3画像ほど優先して表示することを特徴とする。   According to a fourth aspect of the present invention, in the image processing apparatus according to the first or second aspect, the feature amount extraction unit extracts a feature amount related to a hue from the second image, and the second feature based on the feature amount related to the hue. The image is divided into a plurality of regions, and feature amounts related to other than hue are extracted for each of the divided regions, and the second feature amount is a feature amount related to the hue and feature amount other than the hue, and the first feature amount Has the same type of feature quantity as the second feature quantity, and the feature quantity related to the hue includes the ratio of the area in the entire first image that is the basis of the feature quantity for each hue. The first feature values extracted from each of the plurality of first images are grouped on the basis of the hue of the region having the largest ratio, and further include a hue specifying unit, and the hue specifying unit includes: The second image was split The hue of the area having the largest area among the number of areas is specified as the specific hue, the ratio of the specific hue area in the second image is specified as the specific hue ratio, and the display means The third image corresponding to the first feature amount that exists in the group corresponding to the hue and has the ratio of the specific hue area close to the specific hue ratio is preferentially displayed.

請求項5に係る発明は、請求項3または4の画像処理装置において、前記複数の第1特徴量は、それぞれ複数の成分を有し、当該複数の成分の一部または全部が近似する第1特徴量が複数存在する場合に、当該複数の第1特徴量に対応する複数の第3画像については、少なくとも1つの第3画像を残し、他の第3画像を前記表示手段による前記表示部への表示の対象から除外することを特徴とする。   The invention according to claim 5 is the image processing apparatus according to claim 3 or 4, wherein each of the plurality of first feature amounts has a plurality of components, and a part or all of the plurality of components approximate to each other. When there are a plurality of feature amounts, for the plurality of third images corresponding to the plurality of first feature amounts, at least one third image is left and the other third image is sent to the display unit by the display means. It is excluded from the display object of.

請求項6に係る発明は、請求項5の画像処理装置において、前記第1特徴量が生成された時期に基いて、前記除外する他の第3画像を決定することを特徴とする。   According to a sixth aspect of the present invention, in the image processing apparatus according to the fifth aspect, the other third image to be excluded is determined based on a time when the first feature amount is generated.

請求項7に係る発明は、請求項3〜6のいずれかの画像処理装置において、前記補正データ作成手段は、前記第1画像を分割した領域ごとに、前記色相に関する特徴量の代表値、及び、前記色相以外に関する特徴量を抽出し、前記第2画像を分割した領域ごとに、前記色相に関する特徴量の代表値、及び前記色相以外に関する特徴量を抽出し、前記第1画像の色相に関する特徴量の代表値及び前記第2画像の色相に関する特徴量の代表値に基いて色相補正データを作成し、前記画像補正手段は、前記第2画像の画素ごとの色相に関する特徴量を、前記色相補正データに基いて補正し、前記第2画像の画素ごとの色相以外に関する特徴量を、前記領域ごとの代表値に基いて補正することを特徴とする。   According to a seventh aspect of the present invention, in the image processing device according to any one of the third to sixth aspects, the correction data creating unit includes a representative value of the feature value related to the hue for each region into which the first image is divided, and The feature value related to other than the hue is extracted, and the representative value of the feature value related to the hue and the feature value related to other than the hue are extracted for each area obtained by dividing the second image, and the feature related to the hue of the first image is extracted. A hue correction data is created based on a representative value of the quantity and a representative value of the feature quantity related to the hue of the second image, and the image correction means converts the feature quantity related to the hue of each pixel of the second image to the hue correction The correction is performed based on the data, and the feature amount related to other than the hue for each pixel of the second image is corrected based on the representative value for each region.

請求項8に係る発明は、請求項1〜7のいずれかの画像処理装置において、印刷制御手段をさらに有し、前記印刷制御手段は、前記画像補正された第2画像情報を印刷するための処理を行うことを特徴とする。   The invention according to claim 8 is the image processing apparatus according to any one of claims 1 to 7, further comprising print control means, wherein the print control means is for printing the image-corrected second image information. It is characterized by performing processing.

請求項9に係る発明は、請求項3〜8の画像処理装置において、前記色相に関する特徴量は、HSV空間におけるH値に基いて算出されることを特徴とする。   According to a ninth aspect of the present invention, in the image processing apparatus according to the third to eighth aspects, the feature amount related to the hue is calculated based on an H value in the HSV space.

請求項10に係る発明は、画像処理方法において、複数種類の第1画像それぞれについて、当該第1画像から抽出された第1特徴量であって、前記第1画像の色合いに関する第1の代表値であり、色情報に基づいて分割される領域ごとに特定される前記第1の代表値を含む前記第1特徴量と、当該第1画像を縮小して作成した第3画像と、が対応付けて記憶されている記憶手段に記憶された複数種類の前記第3画像を表示部に表示する表示ステップ、ユーザからの入力に応じて、複数の前記第3画像から1つの第3画像を特定する特定ステップ、第2画像を取得する画像取得ステップ、前記第2画像に基いて、前記第2画像の色合いに関する第2の代表値であり、前記領域ごとに特定される前記第2の代表値を含む第2特徴量を抽出する特徴量抽出ステップ、前記特定ステップにおいて特定された1つの第3画像に対応する前記第1特徴量及び前記第2特徴量に基いて、前記第2代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第2代表値以外の値については、補間することにより、前記第2画像を画像補正する画像補正ステップ、からなることを特徴とする。 According to a tenth aspect of the present invention, in the image processing method, for each of a plurality of types of first images, the first feature value extracted from the first image, the first representative value relating to the hue of the first image The first feature value including the first representative value specified for each region divided based on the color information is associated with the third image created by reducing the first image. display step of displaying a third image of a plurality of types stored in the storage means stored Te, in response to an input from the user, identifies one of the third image from a plurality of the third image An identification step, an image acquisition step of acquiring a second image, a second representative value relating to a hue of the second image based on the second image, and the second representative value specified for each region feature extracting a second feature quantity including Extraction step, based on the first feature amount and the second feature amount corresponding to one third image specified in the specifying step, the for the second representative value is specified for the same said region and the correcting the first representative value, the value other than the second representative value, by interpolation, the image correction step of image correction the second image, and wherein the Tona Turkey.

請求項11に係る発明は、画像処理プログラムにおいて、コンピュータに、複数種類の第1画像それぞれについて、当該第1画像から抽出された第1特徴量であって、前記第1画像の色合いに関する第1の代表値であり、色情報に基づいて分割される領域ごとに特定される前記第1の代表値を含む前記第1特徴量と、当該第1画像を縮小して作成した第3画像と、が対応付けて記憶されている記憶手段に記憶された複数種類の前記第3画像を表示部に表示する表示ステップ、ユーザからの入力に応じて、複数の前記第3画像から1つの第3画像を特定する特定ステップ、第2画像を取得する画像取得ステップ、前記第2画像に基いて、前記第2画像の色合いに関する第2の代表値であり、前記領域ごとに特定される前記第2の代表値を含む第2特徴量を抽出する特徴量抽出ステップ、前記特定ステップにおいて特定された1つの第3画像に対応する前記第1特徴量及び前記第2特徴量に基いて、前記第2代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第2代表値以外の値については、補間することにより、前記第2画像を画像補正する画像補正ステップ、を実行させることを特徴とする。 According to an eleventh aspect of the present invention, in the image processing program, the first feature amount extracted from the first image for each of the plurality of types of first images, the first feature relating to the hue of the first image. A first feature value including the first representative value identified for each region divided based on color information, a third image created by reducing the first image, display step of displaying a plurality of kinds of the third image stored in the storage means in association with one another, in response to an input from the user, one of the third image from a plurality of the third image A step of specifying the second image, an image acquiring step of acquiring the second image, a second representative value related to the hue of the second image based on the second image, and the second representative value specified for each region the first including a representative value Feature amount extraction step of extracting a feature quantity, the based on the first feature amount and the second feature amount corresponding to one third image specified in the specifying step, the for the second representative value, the same is corrected to the first representative value which is specified for the region, the value other than the second representative value, by interpolating, to thereby perform the image correction step, the image correcting said second image Features.

請求項1及び2に係る発明によれば、第1画像から抽出した特徴量とその画像を縮小して作成した第3画像とを対応付けて記憶し、当該第3画像を表示し、所望の第3画像をユーザに選択させ、選択された第3画像に対応付けられた特徴量に基いて、画像補正処理を行うから、感覚的に、かつ、簡易な操作で画像補正のお手本となる第1画像を選択することができる。また、縮小された第3画像を記憶するから、必要となる記憶領域を削減することもできる。また、色相を特定するために種々のパラメータを用いることができる。   According to the first and second aspects of the invention, the feature amount extracted from the first image and the third image created by reducing the image are stored in association with each other, the third image is displayed, and the desired image is displayed. Since the user selects the third image and performs the image correction process based on the feature amount associated with the selected third image, the second image can be used as a model for image correction with a sensuous and simple operation. One image can be selected. In addition, since the reduced third image is stored, a necessary storage area can be reduced. Various parameters can be used to specify the hue.

請求項3に係る発明によれば、画像補正対象となる第1画像中の最も大きい領域の色相の割合が近い第3画像ほど優先的に表示可能である、すなわち、ユーザがお手本画像として選択する可能性が高い画像から順に表示可能であるため、選択効率を高めることができる。   According to the third aspect of the present invention, the third image having the closest hue ratio of the largest region in the first image to be corrected can be preferentially displayed, that is, the user selects as a model image. Since the images can be displayed in order from the most likely images, the selection efficiency can be increased.

請求項4に係る発明によれば、第1特徴量がさらにグルーピングされており、また、第3画像の表示順序が、画像補正対象となる画像中の最も大きい領域の色相の割合が近い順であるため、ユーザがお手本画像として選択する可能性が高い画像から優先的表示するため、選択効率を上げることができる。さらに、表示順序を決定するための処理が、特定のグループ内の第1特徴量に対してのみ行われるから、計算量を削減することができる。   According to the invention of claim 4, the first feature amounts are further grouped, and the display order of the third image is the order in which the ratio of the hue of the largest region in the image to be corrected is close. For this reason, since the user is preferentially displayed from images that are highly likely to be selected as model images, the selection efficiency can be increased. Furthermore, since the process for determining the display order is performed only on the first feature amount in the specific group, the calculation amount can be reduced.

請求項5に係る発明によれば、前記複数の第1特徴量は、それぞれ複数の成分を有し、当該複数の成分の全てが近似する第1特徴量が複数存在する場合に、当該複数の第1特徴量に対応する複数の第3画像のうち、所定の第3画像のみを表示の対象とするから、ユーザは効率よくお手本画像を決定することができる。   According to the fifth aspect of the invention, the plurality of first feature quantities each have a plurality of components, and when there are a plurality of first feature quantities that all of the plurality of components approximate, Since only a predetermined third image among the plurality of third images corresponding to the first feature amount is to be displayed, the user can efficiently determine a model image.

請求項6に係る発明によれば、さらに、前記複数の第3画像のうち、生成された次期がより遅い第1特徴量に対応する第3画像を表示の対象とするから、ユーザは効率よくお手本画像を決定することができる。   According to the sixth aspect of the present invention, since the third image corresponding to the first feature amount generated later is the display target among the plurality of third images, the user can efficiently display the third image. A model image can be determined.

請求項7に係る発明によれば、色相に関する特徴量と色相以外に関する特徴量とに分けて異なる画像補正処理を行うため、所望の画像補正処理を容易に行うことができる。   According to the seventh aspect of the invention, since different image correction processing is performed separately for the feature amount related to hue and the feature amount related to other than the hue, desired image correction processing can be easily performed.

請求項8に係る発明によれば、さらに、印刷制御手段を有するから、画像補正された第2画像を印刷することが可能となる。   According to the eighth aspect of the present invention, since the print control unit is further included, it is possible to print the second image whose image has been corrected.

請求項9に係る発明によれば、HSV空間におけるH値に基いて色相に関する特徴量を算出することができる。   According to the ninth aspect of the invention, it is possible to calculate the feature value related to the hue based on the H value in the HSV space.

請求項10、11に係る発明についても、上述した効果を奏することができる。   The inventions according to claims 10 and 11 can also achieve the effects described above.

[本発明の第1実施形態]
まず、本発明に係る画像処理装置の外観の一例について図1に示す。また、画像処理装置1の内部構成の一例について図2に示す。
[First embodiment of the present invention]
First, an example of the appearance of the image processing apparatus according to the present invention is shown in FIG. An example of the internal configuration of the image processing apparatus 1 is shown in FIG.

画像処理装置1は、多機能プリンタ等としての一例であり、その上部に写真等から画像情報を読み取るためのスキャナ2を有している(なお、図1においては、スキャナはカバーされた状態である。)。スキャナによって読み取られた画像情報は、以下に示すメモリスロットより読み込まれた画像情報の色彩等を補正するための見本の情報として用いられる。なお、画像補正処理の詳細については、後述する。   The image processing apparatus 1 is an example of a multi-function printer or the like, and has a scanner 2 for reading image information from a photograph or the like on the top thereof (in FIG. 1, the scanner is in a covered state). is there.). Image information read by the scanner is used as sample information for correcting the color and the like of image information read from the memory slot shown below. Details of the image correction process will be described later.

画像処理装置1は、SDカード(商標)、CFカード(商標)などの記録媒体である外部メモリに記録された画像情報を読み取るためのICカードリーダとして機能するメモリスロット3を有する。ここで、外部メモリ(記憶媒体)は、公知の媒体及び形式を適宜選択可能である。また、複数の方式の媒体に適用するよう、複数のメモリスロットを有するように構成してもよい。また、画像情報を蓄積したPCが接続されたLAN等のネットワークに接続可能な通信機能(例えばLANカード、図示せず)を図2に示すCPU,ROM、RAMなどが接続された信号線に付加することで、前記外部メモリの代わりに、前記PCが接続されたネットワークから所望の画像情報を読み取るよう構成してもよい。その場合は、画像処理装置1は、通信機能を有することになる。   The image processing apparatus 1 has a memory slot 3 that functions as an IC card reader for reading image information recorded in an external memory that is a recording medium such as an SD card (trademark) or a CF card (trademark). Here, as the external memory (storage medium), a known medium and format can be appropriately selected. Further, it may be configured to have a plurality of memory slots so as to be applied to a plurality of types of media. In addition, a communication function (for example, a LAN card, not shown) that can be connected to a network such as a LAN to which a PC storing image information is connected is added to the signal line to which the CPU, ROM, RAM, etc. shown in FIG. 2 are connected. Thus, instead of the external memory, desired image information may be read from a network to which the PC is connected. In that case, the image processing apparatus 1 has a communication function.

画像処理装置1は、種々の操作を行うための操作パネル4を有している。操作パネル4には種々のボタン等が配置される。   The image processing apparatus 1 has an operation panel 4 for performing various operations. Various buttons and the like are arranged on the operation panel 4.

画像処理装置1は、図2に図示されるプリンタ10を有している。画像補正された画像情報は、プリンタ10によって印刷される。印刷された用紙は、例えば、排出口5より排出される。   The image processing apparatus 1 includes a printer 10 illustrated in FIG. The image information subjected to the image correction is printed by the printer 10. The printed paper is discharged from the discharge port 5, for example.

画像処理装置1は、表示手段6を有している。種々の文字情報及びイメージを表示することができる。また、表示手段6の前面に透明なタッチパネルを設け、操作パネル4の一部または全部の機能を代用してもよい。また、タッチパネルと操作パネル4を併用できるよう構成してもよい。   The image processing apparatus 1 has display means 6. Various character information and images can be displayed. Further, a transparent touch panel may be provided on the front surface of the display unit 6 and a part or all of the functions of the operation panel 4 may be substituted. Moreover, you may comprise so that a touch panel and the operation panel 4 can be used together.

画像処理装置1は、プロセッサ(CPU9)によって全体が制御される。また、内部には、情報を一時的に記憶するためのRAM7、及び、所定の情報が記憶されたROM8を有する。また、必要に応じてHDD等の大容量記憶手段を有してもよい。   The image processing apparatus 1 is entirely controlled by a processor (CPU 9). In addition, there are a RAM 7 for temporarily storing information and a ROM 8 for storing predetermined information. Moreover, you may have mass storage means, such as HDD, as needed.

上述した各要素は、信号線によって互いに接続されている。   Each element mentioned above is mutually connected by the signal wire | line.

また、画像処理装置1に、種々の機能(例えば、FAX)を画像処理装置に付加することもできる。また、パソコン等に接続するためのインタフェース、他の印刷装置と接続するためのインタフェースを備えてもよい。   Further, various functions (for example, FAX) can be added to the image processing apparatus 1. Further, an interface for connecting to a personal computer or the like and an interface for connecting to another printing apparatus may be provided.

なお、上記外観は単なる一例であり、本発明が上記外観に限定されないことはいうまでもない。また、上記外観においては、全ての機能が一体化された装置を図示したが、一部の機能を外付け装置で実現してもよい。さらに、上記内部構成は単なる一例であり、本発明が上記内部構成に限定されないことはいうまでもない。   In addition, the said external appearance is only an example, and it cannot be overemphasized that this invention is not limited to the said external appearance. Moreover, in the above-mentioned external appearance, an apparatus in which all functions are integrated is shown, but some functions may be realized by an external apparatus. Furthermore, the internal configuration is merely an example, and it goes without saying that the present invention is not limited to the internal configuration.

次に、本発明に係る画像処理装置1を用いた基本処理の一例について、ユーザの動作及び装置本体の処理の概略を説明する。図3は、当該処理の概略を示したものである。まず、ユーザは、画像補正対象となる画像が記憶されたメモリ(記憶媒体)を、画像処理装置1のメモリスロットにセットする。上述したとおり、このメモリとしては、メモリカードをはじめ公知の記憶媒体を適宜採用可能である。   Next, an outline of user operations and apparatus main body processing will be described as an example of basic processing using the image processing apparatus 1 according to the present invention. FIG. 3 shows an outline of the processing. First, the user sets a memory (storage medium) in which an image to be corrected is stored in a memory slot of the image processing apparatus 1. As described above, as this memory, a known storage medium such as a memory card can be appropriately employed.

メモリがメモリスロット3にセットされることにより(1)、画像処理装置は、セットされたメモリを認識し、ユーザに対し、メモリに記憶されている画像のうち画像補正対象となる画像を選択させる(2)。なお、画像を選択させるための処理は、公知の技術(例えば、画像を順次切替表示して選択させる等)を適宜採用可能である。また、表示手段6を利用してもよい。   When the memory is set in the memory slot 3 (1), the image processing apparatus recognizes the set memory and causes the user to select an image to be corrected from the images stored in the memory. (2). In addition, the process for selecting an image can employ | adopt suitably a well-known technique (For example, switching and displaying an image sequentially, etc.). Further, the display means 6 may be used.

画像補正対象の画像が決定されると(3)、画像処理装置1は当該画像をメモリから読み出し、例えばRAMに書き込む(4)。なお、以下において当該画像を「元画像」ということがある。   When the image to be corrected is determined (3), the image processing apparatus 1 reads the image from the memory and writes it in, for example, the RAM (4). Hereinafter, the image may be referred to as an “original image”.

次に、画像処理装置1は、内部メモリ(例えば、RAM)から表示画像を読み出し、表示手段6に表示する。内部メモリに表示画像が複数記憶されている場合は、表示手段6に一枚ずつ順次表示してもよいし、所定枚数ごと複数一度に表示してもよい。なお、表示画像の詳細については後述する。   Next, the image processing apparatus 1 reads the display image from the internal memory (for example, RAM) and displays it on the display means 6. When a plurality of display images are stored in the internal memory, the images may be sequentially displayed one by one on the display means 6 or may be displayed at a time for a predetermined number of images. Details of the display image will be described later.

ユーザは、表示手段6に表示された所望の表示画像を選択する(6)。表示画像は、操作パネル4、または、タッチパネルを用いて選択される。   The user selects a desired display image displayed on the display means 6 (6). The display image is selected using the operation panel 4 or the touch panel.

次に、画像処理装置1は、選択された表示画像に対応する特徴量を利用して元画像の画像補正処理を行う(7)。画像補正処理の詳細については後述する。   Next, the image processing apparatus 1 performs image correction processing of the original image using the feature amount corresponding to the selected display image (7). Details of the image correction processing will be described later.

なお、上述した図3の処理においては、メモリから画像を読み込んだ後に表示画像を選択するものであるが、先に表示画像を決定し、その後メモリから画像を読み込むよう構成してもよい。また、画像補正処理された画像は、プリンタ10によって印刷してもよい。   In the process of FIG. 3 described above, the display image is selected after reading the image from the memory. However, the display image may be determined first and then read from the memory. Further, the image subjected to the image correction process may be printed by the printer 10.

次に、画像処理装置1における基本処理について説明する。図4は、本実施形態における基本処理の概要を示すフローチャートである。   Next, basic processing in the image processing apparatus 1 will be described. FIG. 4 is a flowchart showing an outline of basic processing in the present embodiment.

まず、S11において、元画像を読み出す。画像処理装置1のRAM7に読み込まれる。ここで、読み込まれた画像の形式は限定されない。
S12において、表示画像を表示し、所望の表示画像をユーザに選択させ、元画像に対する画像補正のお手本となる表示画像を特定する。
First, in S11, an original image is read. The data is read into the RAM 7 of the image processing apparatus 1. Here, the format of the read image is not limited.
In S12, a display image is displayed, the user is allowed to select a desired display image, and a display image that serves as a model for image correction with respect to the original image is specified.

S13において、決定した表示画像に対応付けられている第1特徴量を特定する。第1特徴量の詳細については後述する。   In S13, the first feature amount associated with the determined display image is specified. Details of the first feature amount will be described later.

S14において、読み込まれた元画像の画素をそれぞれHSVパラメータに変換する。HSVパラメータへの変換処理については後述する。   In S14, each pixel of the read original image is converted into an HSV parameter. The conversion process to the HSV parameter will be described later.

S15において、HSVパラメータに基いて元画像の特徴量として第2特徴量を抽出する。第2特徴量を抽出する具体的な処理については後述する。   In S15, a second feature value is extracted as a feature value of the original image based on the HSV parameter. Specific processing for extracting the second feature amount will be described later.

S16において、第1特徴量及び第2特徴量に基いて元画像を補正する。補正するための具体的な処理については後述する。   In S16, the original image is corrected based on the first feature value and the second feature value. Specific processing for correction will be described later.

S17において、補正された元画像を印刷する。このとき、必要に応じてHSVパラメータは、他のパラメータ(例えば、RGBパラメータ)に変換される。RGBパラメータへの変換処理については後述する。   In S17, the corrected original image is printed. At this time, the HSV parameters are converted into other parameters (for example, RGB parameters) as necessary. The conversion process to RGB parameters will be described later.

なお、上述した処理においては、第1特徴量を特定した後に第2特徴量を抽出したが、第2特徴量を抽出した後に第1特徴量を特定してもよい。また、HSVパラメータではなく、L*c*h*パラメータを抽出してもよい。また、RGBパラメータ等の公知のパラメータであっても本発明は実現可能である。なお、以下においては、HSVパラメータを抽出する場合について説明する。   In the above-described processing, the second feature amount is extracted after specifying the first feature amount. However, the first feature amount may be specified after extracting the second feature amount. Further, L * c * h * parameters may be extracted instead of HSV parameters. Further, the present invention can be realized even with known parameters such as RGB parameters. In the following, a case where HSV parameters are extracted will be described.

S12で特定される表示画像、及び、S13で特定される第1特徴量について説明する。図5に、画像処理装置1の内部メモリ(例えば、RAM7)に記憶されている情報の例を示す。図5に示すとおり、内部メモリには、複数の第1特徴量(特徴量A、特徴量B、・・・)と表示画像との対が複数記憶されている。ここで、第1特徴量は、所定の画像から抽出した特徴量であり、対応する表示画像は当該所定の画像から生成されたものである。また、表示画像は、当該所定の画像が規定の大きさに変換された画像である。内部メモリには、当該所定の画像は記憶されておらず、表示画像のみが記憶されるので、表示画像として所定の画像を縮小して生成した縮小画像を用いた場合は、内部メモリの記憶容量を削減することができる。それぞれの第1特徴量は、後述する第2特徴量と同様の種類のものでよい。なお、表示画像は、所定の画像の大きさを縮小するものであってもよいし、所定の画像の解像度を縮小するものであってもよい。   The display image specified in S12 and the first feature amount specified in S13 will be described. FIG. 5 shows an example of information stored in the internal memory (for example, RAM 7) of the image processing apparatus 1. As shown in FIG. 5, the internal memory stores a plurality of pairs of a plurality of first feature amounts (feature amount A, feature amount B,...) And a display image. Here, the first feature amount is a feature amount extracted from a predetermined image, and the corresponding display image is generated from the predetermined image. The display image is an image obtained by converting the predetermined image into a specified size. Since the predetermined image is not stored in the internal memory, only the display image is stored. Therefore, when a reduced image generated by reducing the predetermined image is used as the display image, the storage capacity of the internal memory is used. Can be reduced. Each first feature amount may be of the same type as a second feature amount described later. The display image may be one that reduces the size of the predetermined image, or one that reduces the resolution of the predetermined image.

また、それぞれの第1特徴量及び表示画像の元となる所定の画像は、例えば、スキャナ2で読み取られた画像でもよい。   In addition, the predetermined image that is the basis of each first feature amount and display image may be, for example, an image read by the scanner 2.

次に、図4のS14においてHSVパラメータに変換するための処理の一例を説明する。元画像がRGBパラメータとして取得した場合は、以下の変換式によって、HSVパラメータに変換することができる。なお、下記に示す変換式は一例であり、他の変換式で変換してもよいことはいうまでもない。   Next, an example of processing for converting into HSV parameters in S14 of FIG. 4 will be described. When the original image is acquired as an RGB parameter, it can be converted into an HSV parameter by the following conversion formula. In addition, the conversion formula shown below is an example, and it cannot be overemphasized that you may convert with another conversion formula.

[RGB⇒HSV変換式]
max(a,b,c)はa,b,cの中で最も大きい値を表す。
min(a,b,c)はa,b,cの中で最も小さい値を表す。
V = max(R÷255,G÷255,B÷255)
Vが0でない時、
S = {V - min(R,G,B)} ÷ V
Vが0の時、
S = 0
{V - min(R,G,B)}が0でない時、
r = (V - R÷255)÷(V-min(R,G,B)
g = (V - G÷255)÷(V-min(R,G,B)
b = (V - B÷255)÷(V-min(R,G,B)
{V - min(R,G,B)}が0の時、
r = 0
g = 0
b = 0
V = R÷255の時
H = 60 × (b-g)
V = G÷255の時
H = 60 × (2+r-g)
V = B÷255の時
H = 60 × (4+g-r)
ただしH<0の時
H = H+360
[RGB → HSV conversion formula]
max (a, b, c) represents the largest value among a, b, and c.
min (a, b, c) represents the smallest value among a, b, and c.
V = max (R ÷ 255, G ÷ 255, B ÷ 255)
When V is not 0
S = {V-min (R, G, B)} ÷ V
When V is 0
S = 0
When {V-min (R, G, B)} is not 0,
r = (V-R ÷ 255) ÷ (V-min (R, G, B)
g = (V-G ÷ 255) ÷ (V-min (R, G, B)
b = (V-B ÷ 255) ÷ (V-min (R, G, B)
When {V-min (R, G, B)} is 0,
r = 0
g = 0
b = 0
When V = R ÷ 255
H = 60 × (bg)
When V = G ÷ 255
H = 60 × (2 + rg)
When V = B ÷ 255
H = 60 × (4 + gr)
However, when H <0
H = H + 360

次に、図4のS15における第2特徴量を抽出するための処理について図6を参照しつつ説明する。図6は、第2特徴量抽出処理のフローチャートである。なお、以下の処理においては、H値は、−30〜330未満の値をとるものとする。H値が上記範囲内でない場合は、H値を適宜変換することにより(例えば、“H値+360×n”もしくは“H値−360×n”、nは整数)、上記範囲の値をとるよう調整する。   Next, the process for extracting the second feature amount in S15 of FIG. 4 will be described with reference to FIG. FIG. 6 is a flowchart of the second feature amount extraction process. In the following processing, the H value takes a value of −30 to less than 330. When the H value is not within the above range, by appropriately converting the H value (for example, “H value + 360 × n” or “H value−360 × n”, n is an integer), the value in the above range is taken. adjust.

S21において、元画像の複数の領域に分割する。ここでは、一般的に用いられる6つの色相に基いて分割する。具体的には、それぞれの画素のH値に基き、
・R領域: −30以上〜30未満
・Y領域: 30以上〜90未満
・G領域: 90以上〜150未満
・C領域: 150以上〜210未満
・B領域: 210以上〜270未満
・M領域: 270以上〜330未満
に分割する。つまり、お手本画像の構成画素をその色相値に応じた上記分類基準に従い、6つの分類項目に分類処理を行う。ここで、上記領域とH値の対応関係は、一例であり、適宜変更可能なものである。
In S21, the original image is divided into a plurality of regions. Here, the image is divided based on six commonly used hues. Specifically, based on the H value of each pixel,
-R region: -30 or more and less than 30-Y region: 30 or more and less than 90-G region: 90 or more and less than 150-C region: 150 or more and less than 210-B region: 210 or more and less than 270-M region: Divide into 270 or more and less than 330. In other words, the constituent pixels of the model image are classified into six classification items according to the classification criteria corresponding to the hue value. Here, the correspondence relationship between the region and the H value is an example and can be changed as appropriate.

S22において、S21で分割した領域ごとに、「各領域の代表値(HSV値)」及び「各領域が元画像中に占める割合」を算出する。ここで、各領域の代表値(HSV値)を、以下のように定義する。
・R領域の代表値:iHr,iSr,iVr
・G領域の代表値:iHg,iSg,iVg
・B領域の代表値:iHb,iSb,iVb
・C領域の代表値:iHc,iSc,iVc
・M領域の代表値:iHm,iSm,iVm
・Y領域の代表値:iHy,iSy,iSy
In S22, “representative value (HSV value) of each region” and “ratio of each region in the original image” are calculated for each region divided in S21. Here, the representative value (HSV value) of each region is defined as follows.
・ Representative value of R region: iHr, iSr, iVr
・ Representative value of G region: iHg, iSg, iVg
・ Representative value of B area: iHb, iSb, iVb
-Typical value of C region: iHc, iSc, iVc
-Typical values in the M region: iHm, iSm, iVm
・ Representative value of Y area: iHy, iSy, iSy

ここで、代表値は、各領域におけるHSV値それぞれの平均値とすることができる。また、中間値を用いることができる。   Here, the representative value can be an average value of each HSV value in each region. Moreover, an intermediate value can be used.

次に、各領域が元画像中に占める割合を、以下のように定義する。
・R領域が元画像中に占める割合:iRateR
・G領域が元画像中に占める割合:iRateG
・B領域が元画像中に占める割合:iRateB
・C領域が元画像中に占める割合:iRateC
・M領域が元画像中に占める割合:iRateM
・Y領域が元画像中に占める割合:iRateY
Next, the proportion of each area in the original image is defined as follows.
-Ratio of R area in original image: iRateR
-Ratio of the G area in the original image: iRateG
-Ratio of B area in original image: iRateB
-Ratio of the C area in the original image: iRateC
-Ratio of M area in original image: iRateM
The ratio of the Y area in the original image: iRateY

ここで、上記割合は、例えばR領域については、sRateR=(元画像中のR領域の画素数)÷(元画像の全画素数)で定義することができるが、他の式によって定義してもよい。   Here, for example, for the R region, the ratio can be defined by sRateR = (number of pixels in the R region in the original image) / (total number of pixels in the original image). Also good.

次に、図4のS16において実行される、第1特徴量及び第2特徴量に基いて元画像を変換する処理について詳細を説明する。この処理は、元画像の各画素のH値、S値、V値をそれぞれ変換することによって行われる。   Next, details of the process of converting the original image based on the first feature value and the second feature value, which are executed in S16 of FIG. 4, will be described. This process is performed by converting the H value, S value, and V value of each pixel of the original image.

S13で特定した第1特徴量として、以下の情報を含むものとする。なお、以下においては、S12で特定した表示画像の元となった所定の画像をお手本画像ということがある。
・お手本画像中のR領域の代表値:sHr,sSr,sVr
・お手本画像中のG領域の代表値:sHg,sSg,sVg
・お手本画像中のB領域の代表値:sHb,sSb,sVb
・お手本画像中のC領域の代表値:sHc,sSc,sVc
・お手本画像中のM領域の代表値:sHm,sSm,sVm
・お手本画像中のY領域の代表値:sHy,sSy,sSy
・R領域がお手本画像中に占める割合:sRateR
・G領域がお手本画像中に占める割合:sRateG
・B領域がお手本画像中に占める割合:sRateB
・C領域がお手本画像中に占める割合:sRateC
・M領域がお手本画像中に占める割合:sRateM
・Y領域がお手本画像中に占める割合:sRateY
The following information is included as the first feature amount specified in S13. In the following, the predetermined image that is the origin of the display image specified in S12 may be referred to as a model image.
-Representative values of the R region in the model image: sHr, sSr, sVr
-Representative values of the G region in the model image: sHg, sSg, sVg
・ Representative values of region B in the model image: sHb, sSb, sVb
-Representative values of the C region in the model image: sHc, sSc, sVc
-Typical values of the M region in the model image: sHm, sSm, sVm
-Representative values of the Y area in the model image: sHy, sSy, sSy
The ratio of the R region in the model image: sRateR
-Ratio of the G area in the model image: sRateG
-Ratio of area B in the model image: sRateB
-Ratio of the C area in the model image: sRateC
-Ratio of M area in the model image: sRateM
The ratio of the Y area in the model image: sRateY

まず、H値における変換処理について説明する。元画像のH値の代表値をX軸にとり、特定した第1特徴量のH値の代表値をY軸にとって領域ごとのH値の代表値をプロットする。そしてプロットされた点の間を、例えば、線形補間することにより、図7に示す色相補正テーブルを作成する。ここで、H’>360の場合は、H’=H’−360とする。また、図7に示す色相補正テーブルは、元画像のH値の代表値を「H」としてX軸にとり、お手本領域のH値の代表値を「H’」としてY軸にとったものである。   First, the conversion process for the H value will be described. The representative value of the H value of the original image is taken on the X axis, the representative value of the H value of the identified first feature amount is taken as the Y axis, and the representative value of the H value for each region is plotted. Then, a hue correction table shown in FIG. 7 is created by linear interpolation between the plotted points, for example. Here, when H ′> 360, H ′ = H′-360. In the hue correction table shown in FIG. 7, the representative value of the H value of the original image is taken as “H” on the X axis, and the representative value of the H value of the model area is taken as “H ′” on the Y axis. .

そして、元画像のぞれぞれの画素に対し、上記色相補正テーブルを適用することによって、H値が補正される。より具体的には、補正後のH’は、以下の式で定義することができる。   Then, the H value is corrected by applying the hue correction table to each pixel of the original image. More specifically, the corrected H ′ can be defined by the following equation.

H’=(y2-y1)÷(x2-x1)×H - (y2-y1)÷(x2-x1)×x2 + y2
・・・(式1)
ここで、x1,x2,y1,y2は、以下のように定義される。
H ′ = (y2−y1) ÷ (x2−x1) × H− (y2−y1) ÷ (x2−x1) × x2 + y2
... (Formula 1)
Here, x1, x2, y1, and y2 are defined as follows.

H<iHrのときは、
(x1,y1)= (iHm−360,sHm−360)
(x2,y2)= (iHr,sHr)
When H <iHr,
(X1, y1) = (iHm-360, sHm-360)
(X2, y2) = (iHr, sHr)

iHr≦H<iHyのときは、
(x1,y1)= (iHr,sHr)
(x2,y2)= (iHy,sHy)
When iHr ≦ H <iHy,
(X1, y1) = (iHr, sHr)
(X2, y2) = (iHy, sHy)

iHy≦H<iHgのときは、
(x1,y1)= (iHy,sHy)
(x2,y2)= (iHg,sHg)
When iHy ≦ H <iHg,
(X1, y1) = (iHy, sHy)
(X2, y2) = (iHg, sHg)

iHg≦H<iHcのときは、
(x1,y1)= (iHg,sHg)
(x2,y2)= (iHc,sHc)
When iHg ≦ H <iHc,
(X1, y1) = (iHg, sHg)
(X2, y2) = (iHc, sHc)

iHc≦H<iHbのときは、
(x1,y1)= (iHc,sHc)
(x2,y2)= (iHb,sHb)
When iHc ≦ H <iHb,
(X1, y1) = (iHc, sHc)
(X2, y2) = (iHb, sHb)

iHb≦H<iHmのときは、
(x1,y1)= (iHb,sHb)
(x2,y2)= (iHm,sHm)
When iHb ≦ H <iHm,
(X1, y1) = (iHb, sHb)
(X2, y2) = (iHm, sHm)

iHm≦Hのときは、
(x1,y1)= (iHm,sHm)
(x2,y2)= (iHr+360,sHr+360)
When iHm ≦ H,
(X1, y1) = (iHm, sHm)
(X2, y2) = (iHr + 360, sHr + 360)

次に、S値及びV値における変換について説明する。S値及びY値は、H値によって分割された領域ごとに値が変換される。例えば、R領域について、
S ≦ iSrのときは、
S’=S×(sSr÷iSr) ・・・(式2)
S > iSrのときは、
S’=1+(S−1)×{(1−sSr)÷(1−iSr)} ・・・(式3)
V ≦ iVrのときは、
V’=V×(sVr÷iVr) ・・・(式4)
V > iVrのときは、
V’=1+(V−1)×{(1−sVr)÷(1−iVr)} ・・・(式5)
の式で求めることができる。また、その他の領域の計算についても同様に算出することができる。なお、以下においては、上記S値の変換式で定義される変換テーブルを彩度補正テーブルということがあり、また、上記V値の変換式で定義される変換テーブルを明度補正テーブルということがある。
Next, conversion in the S value and the V value will be described. The S value and the Y value are converted for each area divided by the H value. For example, for the R region:
When S ≦ iSr,
S ′ = S × (sSr ÷ iSr) (Formula 2)
When S> iSr,
S ′ = 1 + (S−1) × {(1-sSr) ÷ (1-iSr)} (Formula 3)
When V ≦ iVr,
V ′ = V × (sVr ÷ iVr) (Formula 4)
When V> iVr,
V ′ = 1 + (V−1) × {(1−sVr) ÷ (1−iVr)} (Formula 5)
It can be calculated by the following formula. Further, other areas can be similarly calculated. In the following, the conversion table defined by the S value conversion formula may be referred to as a saturation correction table, and the conversion table defined by the V value conversion formula may be referred to as a brightness correction table. .

次に、図4のS17における、プリンタ10に適するフォーマット(例えば、RGB値)に変換するための変換式について説明する。なお、下記に示す変換式は一例であり、他の変換式で変換してもよいことはいうまでもない。   Next, a conversion formula for converting into a format (for example, RGB value) suitable for the printer 10 in S17 of FIG. 4 will be described. In addition, the conversion formula shown below is an example, and it cannot be overemphasized that you may convert with another conversion formula.

[HSV⇒RGB]
(以下で示すin, fl, m, nは、HSVからRGBを算出する過程で利用する媒介変数で
ある)
in を (H÷60)の整数部分、fl を (H÷60)の小数部分とする。
in が偶数の場合
fl = 1-fl
m = V × (1-S)
n = V × (1-S×fl)
inが0の時
R = V × 255
G = n × 255
B = m × 255
inが1の時
R = n × 255
G = V × 255
B = m × 255
inが2の時
R = m × 255
G = V × 255
B = n × 255
inが3の時
R = m × 255
G = n × 255
B = V × 255
inが4の時
R = n × 255
G = m × 255
B = V × 255
inが5の時
R = V × 255
G = m × 255
B = n × 255
[HSV⇒RGB]
(In, fl, m, and n shown below are parameters used in the process of calculating RGB from HSV)
Let in be the integer part of (H ÷ 60) and fl be the decimal part of (H ÷ 60).
If in is an even number
fl = 1-fl
m = V × (1-S)
n = V × (1-S × fl)
When in is 0
R = V × 255
G = n × 255
B = m × 255
When in is 1
R = n × 255
G = V × 255
B = m × 255
When in is 2
R = m × 255
G = V × 255
B = n × 255
When in is 3
R = m × 255
G = n × 255
B = V × 255
When in is 4
R = n × 255
G = m × 255
B = V × 255
When in is 5
R = V × 255
G = m × 255
B = n × 255

上述したとおり、本発明の第1実施形態によれば、第1特徴量に対応した表示画像を提示して、ユーザに選択させ、選択された表示画像に対応する第1特徴量を用いて画像補正を行うから、簡易な操作で画像処理のお手本となる画像を選択することができる。また、表示画像として縮小画像を用いることにより、記憶容量を削減することができる。さらに、同一の特徴量を用いて、複数回の画像補正処理を行う場合は、繰り返しお手本画像をスキャンする動作を省略することもできる。   As described above, according to the first embodiment of the present invention, a display image corresponding to the first feature amount is presented, the user selects the image, and the first feature amount corresponding to the selected display image is used. Since correction is performed, an image serving as a model for image processing can be selected with a simple operation. Further, the storage capacity can be reduced by using the reduced image as the display image. Further, when performing the image correction process a plurality of times using the same feature amount, the operation of repeatedly scanning the model image can be omitted.

[画像補正処理の第2実施形態]
以下に説明する画像補正処理の第2実施形態においては、分割されたそれぞれの領域に対し、領域の大きさに基いて画像補正処理の一部を停止、また、変化量を制御することができる。これにより、ユーザがお手本画像の一部の色合いのみを元画像の色合いに反映させることができる。
[Second Embodiment of Image Correction Processing]
In the second embodiment of the image correction process described below, for each divided area, a part of the image correction process can be stopped and the amount of change can be controlled based on the size of the area. . Thereby, the user can reflect only a part of the hue of the model image in the hue of the original image.

本実施形態の基本処理のフローチャートを図8に示す。本実施形態の基本的な処理の流れは図4と同じであるが、第2特徴量抽出処理の後に、代表値再設定処理(S36)が追加される。以下、代表値再設定処理について、図を参照しつつ説明する。   FIG. 8 shows a flowchart of basic processing of this embodiment. The basic processing flow of the present embodiment is the same as that in FIG. 4, but a representative value resetting process (S36) is added after the second feature amount extraction process. Hereinafter, the representative value resetting process will be described with reference to the drawings.

図9は、本実施形態における代表値再設定処理のフローチャートである。S41において、分割された領域が変換対象か否かを判別される。この処理では、当該領域が所定の条件を満たすか否かが判断される。   FIG. 9 is a flowchart of the representative value resetting process in the present embodiment. In S41, it is determined whether or not the divided area is a conversion target. In this process, it is determined whether or not the area satisfies a predetermined condition.

変換対象であると判断された場合(S41:YES)は、S43に進む。変換対象でないと判断された場合(S41:NO)は、S42に進む。S42では、代表値が再設定し、その後S53に進む。代表値の再設定の方法は後述する。   When it is determined that it is a conversion target (S41: YES), the process proceeds to S43. When it is determined that it is not a conversion target (S41: NO), the process proceeds to S42. In S42, the representative value is reset, and then the process proceeds to S53. A method of resetting the representative value will be described later.

S43においては、全ての領域(6分割した場合は6つの領域)について、変換対象か否かが判断されたか否かを判別する。判別していない領域が残っている場合(S43:NO)は、S41に戻り処理を繰り返す。全ての領域についての判断が終了すると(S43:YES)、代表値再設定処理を終了する。   In S43, it is determined whether or not all the regions (six regions in the case of 6 divisions) are determined to be converted. If an unidentified area remains (S43: NO), the process returns to S41 and the process is repeated. When the determination for all areas is completed (S43: YES), the representative value resetting process is terminated.

[閾値Threを用いる方法]
上述した所定の条件として、分割された領域の大きさと閾値Threとの大小関係を用いることができる。元画像、または、お手本画像に占める割合が閾値Threより小さい場合に、その領域に係る元画像の第1特徴量及びお手本画像の第2特徴量の代表値を同じ値に変更し、当該変更された代表値を用いて上述した画素ごとの変換処理を行う。以下、この処理について説明する。代表値を以下のように再設定することができる。
[Method using threshold Thre]
As the predetermined condition described above, the magnitude relationship between the size of the divided area and the threshold value Thre can be used. When the ratio of the original image or the model image is smaller than the threshold Thre, the first feature value of the original image and the second feature value of the model image related to the region are changed to the same value, and the change is made. The above-described conversion processing for each pixel is performed using the representative value. Hereinafter, this process will be described. The representative value can be reset as follows.

sRateR<Thre または iRateR<Thre のときは、
sHr=0,sSr=0.5,sVr=0.5,
iHr=0,iSr=0.5,iVr=0.5
When sRateR <Thre or iRateR <Thre,
sHr = 0, sSr = 0.5, sVr = 0.5,
iHr = 0, iSr = 0.5, iVr = 0.5

sRateG<Thre または iRateG<Thre のときは、
sHg=120,sSg=0.5,sVg=0.5,
iHg=120,iSg=0.5,iVg=0.5
When sRateG <Thre or iRateG <Thre,
sHg = 120, sSg = 0.5, sVg = 0.5,
iHg = 120, iSg = 0.5, iVg = 0.5

sRateB<Thre または iRateB<Thre のときは、
sHb=240,sSb=0.5,sVb=0.5,
iHb=240,iSb=0.5,iVb=0.5
When sRateB <Thre or iRateB <Thre,
sHb = 240, sSb = 0.5, sVb = 0.5,
iHb = 240, iSb = 0.5, iVb = 0.5

sRateC<Thre または iRateC<Thre のときは、
sHc=180,sSc=0.5,sVc=0.5,
iHc=180,iSc=0.5,iVc=0.5
When sRateC <Thre or iRateC <Thre,
sHc = 180, sSc = 0.5, sVc = 0.5,
iHc = 180, iSc = 0.5, iVc = 0.5

sRateM<Thre または iRateM<Thre のときは、
sHm=300,sSm=0.5,sVm=0.5,
iHm=300,iSm=0.5,iVm=0.5
When sRateM <Thre or iRateM <Thre,
sHm = 300, sSm = 0.5, sVm = 0.5,
iHm = 300, iSm = 0.5, iVm = 0.5

sRateY<Thre または iRateY<Thre のときは、
sHy=60,sSy=0.5,sVy=0.5,
iHy=60,iSy=0.5,iVy=0.5
When sRateY <Thre or iRateY <Thre,
sHy = 60, sSy = 0.5, sVy = 0.5,
iHy = 60, iSy = 0.5, iVy = 0.5

上述した例においては、S値及びV値については、そのとり得る値(0〜1)の中間値である0.5を採用した。また、H値においては、それぞれの領域の中間値を採用した。しかしながら、上述した代表値は一例であり、本発明は上記数値に限定されるものではない。   In the above-described example, as the S value and the V value, 0.5, which is an intermediate value between possible values (0 to 1), is employed. Moreover, the intermediate value of each area | region was employ | adopted about H value. However, the representative values described above are examples, and the present invention is not limited to the above numerical values.

この値を利用して、画素ごとの変換を上述した変換式(式2)〜(式5)を用いることにより、S値及びV値においては値が変更されない。すなわち、例えばR領域に関して、S ≦ iSrのときは、上述した(式2)のとおり、   By using this value and using the conversion expressions (Expression 2) to (Expression 5) described above for conversion for each pixel, the values are not changed in the S value and the V value. That is, for example, with respect to the R region, when S ≦ iSr, as described above (Formula 2),

S’=S×(sSr÷iSr)     S ′ = S × (sSr ÷ iSr)

の式で算出されるが、当該式において、sSr=0.5,iSr=0.5となるので、上述した式は、 In this formula, sSr = 0.5 and iSr = 0.5, so the above formula is

S’=S×(0.5÷0.5)=S ・・・(式6)
となる。S>iSrのときも同様にS’=Sとなる。また、 V値、及び、他の領域につ
いても同様に変換されない。
S ′ = S × (0.5 ÷ 0.5) = S (Expression 6)
It becomes. Similarly, when S> iSr, S ′ = S. Similarly, the V value and other regions are not converted.

また、H値においては、図7においてプロットされる点が代表値に変更されるので、その領域における変換量を小さくすることができる。すなわち、上述した変更式(式1)を利用した場合であっても、代表値を変更させることによって変換量が小さくなる。   Further, in the H value, the point plotted in FIG. 7 is changed to the representative value, so that the conversion amount in that region can be reduced. That is, even when the above-described changing formula (Formula 1) is used, the conversion amount is reduced by changing the representative value.

次に、閾値Threの決定方法について説明する。この値は、官能評価に基いて決定することができる。官能評価では、約6%以上の面積を占めていれば、その領域は知覚されやすいことを確認した。したがって、閾値Threとして、6%を採用することができる。ただし、本願発明は、閾値Threとして6%のものに限定されない。   Next, a method for determining the threshold value Thre will be described. This value can be determined based on sensory evaluation. In sensory evaluation, it was confirmed that if the area occupied about 6% or more, the area was easily perceived. Therefore, 6% can be adopted as the threshold Thre. However, the present invention is not limited to the threshold Thre of 6%.

また、他の領域に対して相対的に面積が大きい領域を抽出するよう閾値Threを決定してもよい。例えば、分割される領域の数が6であれば、その逆数である1/6を閾値Threとすることもできる。   Further, the threshold Thre may be determined so as to extract a region having a relatively large area relative to other regions. For example, if the number of areas to be divided is 6, 1/6, which is the reciprocal thereof, can be set as the threshold value Thre.

本発明の一例として挙げた分割領域数である「6」は、色彩を表現する色域の1つであるRGB空間(頂点数8)から、無彩色である白と黒とを除いた頂点の数「6」と同じである。人が色彩を識別するには、色領域の数として6であれば充分であり、6より少なくすると、ユーザがお手本画像のように変換されていないと感じる恐れがある。また6より細かく分割すれば、より変換精度は高くなる。しかしながら、人には識別できなくなる可能性が高くなり、また、分割数の増加に伴い計算量も増える。プリンタを用いる場合、印刷結果として補正対象の画像を得るまでの時間が遅くなり、ユーザの不満も増加する可能性も高くなるので、分割される領域の数は6が好ましいと考えられる。   The number of divided areas “6” given as an example of the present invention is the number of vertices excluding white and black, which are achromatic colors, from the RGB space (number of vertices 8) that is one of the color gamuts expressing colors. It is the same as the number “6”. In order for a person to identify a color, six is sufficient as the number of color regions, and if it is less than six, the user may feel that the image has not been converted as in the model image. If the data is divided more finely than 6, the conversion accuracy becomes higher. However, there is a high possibility that the person cannot be identified, and the amount of calculation increases as the number of divisions increases. In the case of using a printer, the time until obtaining an image to be corrected as a printing result is delayed, and there is a high possibility that user dissatisfaction will increase.

なお、上述した例においては、すべての領域において閾値を同一のものとしたが、領域ごとに閾値Threを変更するよう構成してもよい。   In the example described above, the threshold value is the same in all the regions, but the threshold value Thre may be changed for each region.

[最大領域の情報を用いる方法]
上述した手法では、閾値Threを設定し、当該閾値Threに基いて代表値の変更、すなわち、画像補正処理の停止、変換量の減少の制御を行った。ここで、お手本画像の特定の色のみについて元画像に反映させるために、画像中の最大領域の情報を用いる画像補正処理について以下説明する。
[Method using information of maximum area]
In the above-described method, the threshold Thre is set, and the representative value is changed based on the threshold Thre, that is, the image correction processing is stopped and the conversion amount is reduced. Here, an image correction process using information on the maximum area in the image in order to reflect only a specific color of the model image in the original image will be described below.

この場合、図9中のS41において、元画像及びお手本画像のいずれにおいても最も面積が大きい領域であるか否かを所定の条件とすることができる。この場合は、以下の式によって代表値が再設定される。ここで、分割されたお手本画像の領域のうちお手本画像に占める割合が最も大きい領域の割合を、iMaxRateとする。また、分割された元画像の領域のうち元画像に占める割合が最も大きい領域の割合を、sMaxRateとする。   In this case, in S41 in FIG. 9, whether or not the area is the largest in both the original image and the model image can be set as a predetermined condition. In this case, the representative value is reset by the following formula. Here, the ratio of the divided area of the model image that has the largest ratio to the model image is iMaxRate. Further, the ratio of the divided area of the original image that has the largest ratio to the original image is sMaxRate.

sRateR≠iMaxRateまたはiRateR≠sMaxRateのとき、
sHr=0,sSr=0.5,sVr=0.5,
iHr=0,iSr=0.5,iVr=0.5
When sRateR ≠ iMaxRate or iRateR ≠ sMaxRate,
sHr = 0, sSr = 0.5, sVr = 0.5,
iHr = 0, iSr = 0.5, iVr = 0.5

sRateG≠iMaxRateまたはiRateG≠sMaxRateのとき、
sHg=120,sSg=0.5,sVg=0.5,
iHg=120,iSg=0.5,iVg=0.5
When sRateG ≠ iMaxRate or iRateG ≠ sMaxRate,
sHg = 120, sSg = 0.5, sVg = 0.5,
iHg = 120, iSg = 0.5, iVg = 0.5

sRateB≠iMaxRateまたはiRateB≠sMaxRateのとき、
sHb=240,sSb=0.5,sVb=0.5,
iHb=240,iSb=0.5,iVb=0.5
When sRateB ≠ iMaxRate or iRateB ≠ sMaxRate,
sHb = 240, sSb = 0.5, sVb = 0.5,
iHb = 240, iSb = 0.5, iVb = 0.5

sRateC≠iMaxRateまたはiRateC≠sMaxRateのとき、
sHc=180,sSc=0.5,sVc=0.5,
iHc=180,iSc=0.5,iVc=0.5
When sRateC ≠ iMaxRate or iRateC ≠ sMaxRate,
sHc = 180, sSc = 0.5, sVc = 0.5,
iHc = 180, iSc = 0.5, iVc = 0.5

sRateM≠iMaxRateまたはiRateM≠sMaxRateのとき、
sHm=300,sSm=0.5,sVm=0.5,
iHm=300,iSm=0.5,iVm=0.5
When sRateM ≠ iMaxRate or iRateM ≠ sMaxRate,
sHm = 300, sSm = 0.5, sVm = 0.5,
iHm = 300, iSm = 0.5, iVm = 0.5

sRateY≠iMaxRateまたはiRateY≠sMaxRateのとき、
sHy=60,sSy=0.5,sVy=0.5,
iHy=60,iSy=0.5,iVy=0.5
When sRateY ≠ iMaxRate or iRateY ≠ sMaxRate,
sHy = 60, sSy = 0.5, sVy = 0.5,
iHy = 60, iSy = 0.5, iVy = 0.5

これにより、元画像及びお手本画像のいずれにおいても最も面積が大きい領域のみが変換対象となるから、変換対象とならなかったS値及びV値については変換が行われず、また、H値については変換量を減少させることができる。   As a result, since only the region having the largest area in both the original image and the model image is to be converted, the conversion is not performed for the S value and the V value that are not the conversion target, and the H value is converted. The amount can be reduced.

ここで、B領域のみを変換対象とした場合、図10に示すような色相補正テーブルが作成されることになる。この色相補正テーブルにおいては、色空間上B領域に隣接するC領域におけるH値の代表値(iHc=180,sHc=180)とB領域におけるH値の代表値(iHb,sHb)とが直線で結ばれ、また、色空間上B領域に隣接するM領域におけるH値の代表値(iHm=300,sHm=300)とB領域におけるH値の代表値(iHb,sHb)とが直線で結ばれることになる。   Here, when only the region B is to be converted, a hue correction table as shown in FIG. 10 is created. In this hue correction table, the H value representative value (iHc = 180, sHc = 180) in the C region adjacent to the B region in the color space and the H value representative value (iHb, sHb) in the B region are linear. In addition, the representative value of the H value (iHm = 300, sHm = 300) in the M region adjacent to the B region in the color space and the representative value of the H value in the B region (iHb, sHb) are connected by a straight line. It will be.

このため、H値が180<H≦210のC領域、及びH値が270<H≦300のM領域についても、変換されることになる。この変換量は、B領域に近い値ほど大きくなる。   Therefore, the C region where the H value is 180 <H ≦ 210 and the M region where the H value is 270 <H ≦ 300 are also converted. This conversion amount becomes larger as the value is closer to the B region.

上記のとおり、画像補正処理の第2実施形態においては、変換対象の領域を選択可能であり、また、変換対象ではない領域であっても、色空間上隣接するH値については一部変換されることになるから、変換対象の領域の変換対象ではない領域との間に擬似輪郭(階調とび)が生成されることを防ぐことができる。
[画像補正処理の第3実施形態]
上記画像補正処理の第2実施形態においては、変換対象としない領域のH値は、変換量が減少させることはできるものの、変換量をゼロとすることはできない。図10に示すように、変換対象としない領域の代表値との線形補間されるため、他の領域の代表値の影響を受けるからである。
As described above, in the second embodiment of the image correction process, a conversion target region can be selected, and even in a region that is not a conversion target, H values adjacent in the color space are partially converted. Therefore, it is possible to prevent a pseudo contour (tone jump) from being generated between the conversion target area and the non-conversion area.
[Third Embodiment of Image Correction Processing]
In the second embodiment of the image correction process, although the conversion amount can be reduced, the conversion amount of the H value of the region not to be converted cannot be set to zero. This is because, as shown in FIG. 10, linear interpolation is performed with the representative values of the areas that are not to be converted, and therefore, it is affected by the representative values of other areas.

そこで、図11に示すような色相補正テーブルを採用することができる。図11は、B領域のみを変換対象とした場合の色相補正テーブルである。この図においては、変換対象の領域の数は1つであるが、複数の領域を補正対象とした場合であってもよい。   Therefore, a hue correction table as shown in FIG. 11 can be employed. FIG. 11 is a hue correction table in the case where only the B region is to be converted. In this figure, the number of areas to be converted is one, but a plurality of areas may be targeted for correction.

図11においては、B領域以外のH値は、H’=Hであるから、画像補正は行われない。B領域のH’値については、B領域中の最小値をHmin,B領域中の最大値をHmaxとすれば、以下の式で求めることができる。   In FIG. 11, since the H values other than the B region are H ′ = H, image correction is not performed. The H ′ value in the B region can be obtained by the following equation, where the minimum value in the B region is Hmin and the maximum value in the B region is Hmax.

H<iHのときは、
H’=Hmin+(sHb−Hmin)×(H−Hmin)÷(iHb−Hmin)
When H <iH,
H ′ = Hmin + (sHb−Hmin) × (H−Hmin) ÷ (iHb−Hmin)

H>iHのときは、
H’=sHb+(Hmax−sHb)×(H−iHb)÷(Hmax−iHb)
When H> iH,
H ′ = sHb + (Hmax−sHb) × (H−iHb) ÷ (Hmax−iHb)

この式を用いることにより、変換対象の領域のみを変換することができる。   By using this equation, only the region to be converted can be converted.

上述したとおり、画像補正処理の第3実施形態においては、変換対象のH値のみを変換することができるから、画像補正の効果を大きくすることができる。   As described above, in the third embodiment of the image correction process, since only the H value to be converted can be converted, the effect of image correction can be increased.

[画像補正処理の第4実施形態]
上記画像補正処理の第2実施形態においては、S値及びV値に対し、領域ごとに補正カーブ(変換式)を独立して用いるため、擬似輪郭(階調とび)が生成されるおそれがある。すなわち、図12に示すように、領域ごとに、SとS’との関係を示すテーブルを有しており、隣接する領域におけるテーブルの性質を何ら考慮していない。
[Fourth Embodiment of Image Correction Processing]
In the second embodiment of the image correction process, since a correction curve (conversion formula) is independently used for each region with respect to the S value and the V value, a pseudo contour (tone jump) may be generated. . That is, as shown in FIG. 12, each region has a table indicating the relationship between S and S ′, and no consideration is given to the nature of the table in adjacent regions.

本実施形態においては、図13に示すように、各色領域における補正カーブを滑らかにすることで階調とびを防止できる。   In the present embodiment, as shown in FIG. 13, gradation jumps can be prevented by smoothing the correction curve in each color region.

本実施形態の具体的な処理について以下に説明する。図14及び図15を参照しつつB領域の一部の画像補正処理について説明を行うが、他の領域についても処理の内容は基本的には同じである。
本実施形態における補正されたS値(Sb’’)は、
− 変換対象領域のH値(H)、
− 変換対象とする領域のH値の代表値(Hbmid)、
− 変換対象となる画素のH値の色相座標位置に近い側の隣接領域(この場合は、C領
域)のH値の代表値(Hcmid)、
− 上記式(2)に対応する変換式で変換された(すなわち、B領域の彩度補正テーブ
ルを用いて算出された)変換対象領域のS値(Sb’、Hbmidに対応するもの)、
− 上記式(3)に対応する変換式で変換された(すなわち、C領域の彩度補正テーブ
ルを用いて算出された)隣接する領域のS値(Sc’、Hcidに対応するもの)、
を用いて、以下の式で求めることができる。
Specific processing of this embodiment will be described below. The image correction process for a part of the area B will be described with reference to FIGS. 14 and 15, but the contents of the process are basically the same for the other areas.
The corrected S value (Sb ″) in this embodiment is
-H value (H) of the conversion target area,
-H value representative value (Hbmid) of the area to be converted,
A representative value (Hcmid) of the H value of the adjacent region (in this case, the C region) closer to the hue coordinate position of the H value of the pixel to be converted,
-S value (corresponding to Sb ', Hbmid) of the conversion target area converted by the conversion formula corresponding to the above formula (2) (that is, calculated using the saturation correction table of the B area),
-S value of the adjacent area (which corresponds to Sc ', Hcid) converted by the conversion formula corresponding to the above formula (3) (that is, calculated using the saturation correction table of the C area),
Can be obtained by the following equation.

Sb’’ = {(H−Hcmid)×Sb’+(Hbmid−H)×Sc’}÷
{(Hbmid−Hcmid)} ・・・(式7)
Sb ″ = {(H−Hcmid) × Sb ′ + (Hbmid−H) × Sc ′} ÷
{(Hbmid−Hcmid)} (Expression 7)

また、本実施形態における補正されたV値(Vb’’)は、
− 変換対象領域のH値(H)、
− 変換対象とする領域のH値の代表値(Hbmid)、
− 変換対象となる画素のH値の色相座標位置に近い側の隣接領域(この場合は、C領
域)のH値の代表値(Hcmid)、
− 上記式(4)に対応する変換式で変換された(すなわち、B領域の明度補正テーブ
ルを用いて算出された)変換対象領域のV値(Vb’、Hbmidに対応するもの)、
− 上記式(5)に対応する変換式で変換された(すなわち、C領域の明度補正テーブ
ルを用いて算出された)隣接する領域のS値(Vc’、Hcidに対応するもの)、を用いて、以下の式で求めることができる。
Further, the corrected V value (Vb ″) in the present embodiment is
-H value (H) of the conversion target area,
-H value representative value (Hbmid) of the area to be converted,
A representative value (Hcmid) of the H value of the adjacent region (in this case, the C region) closer to the hue coordinate position of the H value of the pixel to be converted,
-V value (corresponding to Vb ', Hbmid) of the conversion target area converted by the conversion formula corresponding to the above formula (4) (that is, calculated using the brightness correction table of the B area),
-Using the S value (corresponding to Vc ', Hcid) of the adjacent area converted by the conversion formula corresponding to the above formula (5) (that is, calculated using the brightness correction table of the C area) And can be calculated by the following formula.

Vb’’ = {(H−Hcmid)×Vb’+(Hbmid−H)×Vc’}÷
{(Hbmid−Hcmid)} ・・・(式8)
Vb ″ = {(H−Hcmid) × Vb ′ + (Hbmid−H) × Vc ′} ÷
{(Hbmid−Hcmid)} (Equation 8)

上述した処理を、図16に示されるB領域の一部(H値の範囲:210<H≦240)及びC領域の一部(H値の範囲180<H≦210)に対して行う。これにより、入力の色相値(H)に応じた重み付け計算により、出力の彩度値(S’’)及び明度値(V’’)
を求めることにより、各色相間の補正効果を滑らかにすることができる。
The above-described processing is performed on part of the B region (H value range: 210 <H ≦ 240) and part of the C region (H value range 180 <H ≦ 210) shown in FIG. Thus, the saturation value (S ″) and the lightness value (V ″) of the output are calculated by weighting calculation according to the hue value (H) of the input.
Thus, the correction effect between the hues can be smoothed.

[表示画像の提示順序の決定の第1実施形態]
図5に示した情報に関し、多種類の表示画像及び第1特徴量を記憶しておくことで、画像補正のバリエーション(選択肢)を増やすことができる。しかしながら、一方で、多くの表示画像を選択肢として提示するために、所望の表示画像が早い段階で提示されない場合は、ユーザは所望の表示画像を決定するための時間がかかることになる。
[First Embodiment of Determination of Display Order of Display Images]
With respect to the information shown in FIG. 5, variations (options) for image correction can be increased by storing various types of display images and first feature amounts. However, on the other hand, in order to present many display images as options, if the desired display image is not presented at an early stage, the user takes time to determine the desired display image.

そこで、記憶されている表示画像を効率よく提示するための処理について以下説明する。図17は、本実施形態の基本処理を示すフローチャートである。本フローチャートにおける個々の処理は、基本的には図4と同じであるため、S54の提示順序決定処理についてのみ具体的に説明する。   Therefore, processing for efficiently presenting stored display images will be described below. FIG. 17 is a flowchart showing the basic processing of this embodiment. Since the individual processes in this flowchart are basically the same as those in FIG. 4, only the presentation order determination process in S54 will be specifically described.

元画像の特徴を有する画像をお手本画像として選択する傾向にあると考えられるため、基画像に占める割合が最も大きい色領域の面積が類似する表示画像を、優先して先に提示するよう提示順序を決定する。   Since it is considered that there is a tendency to select an image having the characteristics of the original image as a model image, a display order in which a display image with a similar area of the color area having the largest proportion of the base image is preferentially presented first is presented. To decide.

例として、3つの表示画像(A、B、C)が存在し、各画像の元となったお手本画像におけるそれぞれの色領域の割合が以下のとおりであるとする。   As an example, assume that there are three display images (A, B, and C), and the ratios of the respective color regions in the model image that is the basis of each image are as follows.

・R領域がお手本画像A中に占める割合:sRateR_A=25%
・G領域がお手本画像A中に占める割合:sRateG_A=15%
・B領域がお手本画像A中に占める割合:sRateB_A=30%
・C領域がお手本画像A中に占める割合:sRateC_A=10%
・M領域がお手本画像A中に占める割合:sRateM_A= 8%
・Y領域がお手本画像A中に占める割合:sRateY_A=12%
The ratio of the R region in the sample image A: sRateR_A = 25%
The ratio of the G area in the sample image A: sRateG_A = 15%
-Ratio of area B in sample image A: sRateB_A = 30%
The ratio of the C area in the sample image A: sRateC_A = 10%
The ratio of the M area in the sample image A: sRateM_A = 8%
The ratio of the Y area in the sample image A: sRateY_A = 12%

・R領域がお手本画像B中に占める割合:sRateR_B=30%
・G領域がお手本画像B中に占める割合:sRateG_B=12%
・B領域がお手本画像B中に占める割合:sRateB_B= 8%
・C領域がお手本画像B中に占める割合:sRateC_B=15%
・M領域がお手本画像B中に占める割合:sRateM_B=10%
・Y領域がお手本画像B中に占める割合:sRateY_B=25%
-Ratio of the R region in the sample image B: sRateR_B = 30%
-Ratio of the G area in the model image B: sRateG_B = 12%
The ratio of the B area in the sample image B: sRateB_B = 8%
-Ratio of the C area in the sample image B: sRateC_B = 15%
The ratio of the M area in the model image B: sRateM_B = 10%
The ratio of the Y area in the sample image B: sRateY_B = 25%

・R領域がお手本画像C中に占める割合:sRateR_C= 8%
・G領域がお手本画像C中に占める割合:sRateG_C=10%
・B領域がお手本画像C中に占める割合:sRateB_C=12%
・C領域がお手本画像C中に占める割合:sRateC_C=25%
・M領域がお手本画像C中に占める割合:sRateM_C=30%
・Y領域がお手本画像C中に占める割合:sRateY_C=15%
The ratio of the R region in the sample image C: sRateR_C = 8%
The ratio of the G area in the sample image C: sRateG_C = 10%
The ratio of the B area in the sample image C: sRateB_C = 12%
The ratio of the C area in the sample image C: sRateC_C = 25%
-Ratio of the M area in the sample image C: sRateM_C = 30%
The proportion of the Y area in the sample image C: sRateY_C = 15%

また、元画像におけるそれぞれの色領域の割合を以下のとおりであるとする。
・R領域が元画像中に占める割合:iRateR=40%
・G領域が元画像中に占める割合:iRateG=15%
・B領域が元画像中に占める割合:iRateB=20%
・C領域が元画像中に占める割合:iRateC=10%
・M領域が元画像中に占める割合:iRateM= 8%
・Y領域が元画像中に占める割合:iRateY= 7%
Further, it is assumed that the ratio of each color area in the original image is as follows.
-Ratio of the R region in the original image: iRateR = 40%
-Ratio of the G area in the original image: iRateG = 15%
-Ratio of B area in original image: iRateB = 20%
-Ratio of the C area in the original image: iRateC = 10%
-Ratio of the M area in the original image: iRateM = 8%
The ratio of the Y area in the original image: iRateY = 7%

元画像における色領域を面積が大きい順にソートすると以下のようになる。
R>B>G>C>M>Y
すなわち、R領域が最も大きい面積を有する。
The color areas in the original image are sorted in descending order of area as follows.
R>B>G>C>M> Y
That is, the R region has the largest area.

そこで、上記お手本画像A、B、Cを、R領域の割合の大きさで並べると以下のようになる。
[1]お手本画像B(R=30%)
[2]お手本画像A(R=25%)
[3]お手本画像C(R=8%)
この順序で提示することにより、ユーザに対し選択効率を向上させることができる。
Therefore, when the model images A, B, and C are arranged in the size of the ratio of the R region, the following is obtained.
[1] Model image B (R = 30%)
[2] Model image A (R = 25%)
[3] Model image C (R = 8%)
By presenting in this order, the selection efficiency can be improved for the user.

また、上記例において、R領域の割合が等しいものが複数存在する場合は、元画像において2番目に面積の多い色領域(上記例においては、B領域)の面積の大きさで次にソートするようにすればよい。同様に、3番目、4番目・・・についても処理することができる。   In the above example, if there are a plurality of R regions having the same ratio, the next sorting is performed by the size of the area of the color region having the second largest area (B region in the above example) in the original image. What should I do? Similarly, the third, fourth, etc. can be processed.

[表示画像の提示順序の決定の第2実施形態]
上述した提示順序決定の第1実施形態においては、内部メモリに記憶されている表示画像すべてを提示順序決定の処理対象としていた。そのため、表示画像の数が増加するほど、提示順序を決定するための特徴量のソート処理に時間がかかり、ユーザに対する表示画像の提示までに時間がかかるおそれがある。そこで、表示画像に予めラベルを付しておき、特定のラベルが付された表示画像のみを提示順序決定の処理対象とすることで、処理を短縮できる。
[Second Embodiment of Determination of Display Order of Display Images]
In the first embodiment of the presentation order determination described above, all display images stored in the internal memory are the processing targets for the presentation order determination. For this reason, as the number of display images increases, it takes time to sort the feature amounts for determining the presentation order, and it may take longer to present the display image to the user. Therefore, the process can be shortened by attaching a label to the display image in advance, and setting only the display image with the specific label as the processing target for the presentation order determination.

具体的には、それぞれのお手本画像に対し、最も面積が大きい色領域に対応するラベルを付する。上記例のお手本画像1、2、3においては、
お手本画像A:Bラベル
お手本画像B:Rラベル
お手本画像C:Mラベル
が付されることになる。また、最も面積が大きい色領域の面積と同程度の面積を有する他の色領域が存在する場合には、1つのお手本画像に対し複数のラベルを付してもよい。この場合、同程度の設定値としては、3〜5%とすることが考えられるが、これに限定されるものではない。
Specifically, a label corresponding to the color area having the largest area is attached to each model image. In the example images 1, 2, and 3 in the above example,
Model image A: B label Model image B: R label Model image C: M label is attached. In addition, when there is another color area having the same area as that of the color area having the largest area, a plurality of labels may be attached to one model image. In this case, it is conceivable that the same set value is 3 to 5%, but the setting value is not limited to this.

ここで、上記設定値を5%とした場合は、
お手本画像A:Rラベル、Bラベル
お手本画像B:Rラベル、Yラベル
お手本画像C:Cラベル、Mラベル
が付されることになる。
Here, if the set value is 5%,
Model image A: R label, B label Model image B: R label, Y label Model image C: C label, M label will be attached.

ここで、上記例の元画像の場合は、R領域が最も面積が大きいから、Rラベルが付されたお手本画像のみがソート対象となる。この場合、お手本画像A及びBがソート対象となり、提示順序は、
[1]お手本画像B
[2]お手本画像A
となる。
グループ内の提示順序の決定方法は、第1実施形態と同様である。また、ラベルのつけ方としては、所定値以上の面積をもつ色領域に対応するラベルを付してもよい。すなわち、例えば、30%以上の色領域に対応するラベルを付してもよい。
Here, in the case of the original image in the above example, since the R area has the largest area, only the model image with the R label is subjected to sorting. In this case, the model images A and B are to be sorted, and the presentation order is
[1] Model image B
[2] Model image A
It becomes.
The method for determining the presentation order within the group is the same as in the first embodiment. In addition, as a labeling method, a label corresponding to a color region having an area of a predetermined value or more may be attached. That is, for example, a label corresponding to a color area of 30% or more may be attached.

[表示画像の提示順序の決定の第3実施形態]
上述した提示順序決定処理の第1及び第2実施形態においては、近似する表示画像が複数存在する場合においても全て提示の対象としていた。上述したとおり、ユーザはスキャナ2等を利用して表示画像の元となる画像を入力する。そして、特徴が近似する表示画像を入力する可能性がある。このとき、特徴が近似する表示画像を複数提示することは、提示効率上好ましいことではない。
[Third Embodiment of Determination of Display Order of Display Images]
In the first and second embodiments of the presentation order determination process described above, all of the display images to be approximated are to be presented. As described above, the user uses the scanner 2 or the like to input an image serving as a display image. Then, there is a possibility of inputting a display image whose characteristics are approximate. At this time, it is not preferable in terms of presentation efficiency to present a plurality of display images whose characteristics are approximate.

そこで、特徴量が近似する表示画像については、一方の表示画像を提示しないように処理することができる。このとき、特徴量が近似しているか否かの基準を、各色領域の割合の差が所定範囲内であり、かつ、各代表値の差が所定範囲内である、とすることができる。また、特徴量が近似する複数の表示画像のうち、時間的に先に生成された特徴量に対応する表示画像を表示の対象から除外してもよい。また、元画像の特徴量に近い方の特徴量に対応する表示画像を表示の対象としてもよい。また、時間的に後に生成された特徴量に対応する表示画像を表示の対象から除外してもよい。すなわち、特徴量が生成された次期に基いて、表示の対象から除外する表示画像を決定してもよい。   Thus, a display image whose feature quantity approximates can be processed so as not to present one display image. At this time, the criterion for determining whether or not the feature amounts are approximate can be that the difference in the proportions of the color regions is within a predetermined range, and the difference between the representative values is within the predetermined range. Moreover, you may exclude from the display object the display image corresponding to the feature-value produced | generated previously in time among several display images with which feature-value approximates. In addition, a display image corresponding to a feature amount closer to the feature amount of the original image may be displayed. In addition, a display image corresponding to a feature amount generated later in time may be excluded from display targets. That is, the display image to be excluded from the display target may be determined based on the next period when the feature amount is generated.

例えば、お手本画像D,Eが存在し、各画像におけるそれぞれの領域の割合が以下のとおりであるとする。   For example, it is assumed that the model images D and E exist and the ratio of each area in each image is as follows.

・R領域がお手本画像D中に占める割合:sRateR_D=25%
・G領域がお手本画像D中に占める割合:sRateG_D=15%
・B領域がお手本画像D中に占める割合:sRateB_D=30%
・C領域がお手本画像D中に占める割合:sRateC_D=10%
・M領域がお手本画像D中に占める割合:sRateM_D= 8%
・Y領域がお手本画像D中に占める割合:sRateY_D=12%
・お手本画像D中のR領域の代表値:
(sHr,sSr,sVr)=( 25,0.3,0.5)
・お手本画像D中のG領域の代表値:
(sHg,sSg,sVg)=(120,0.2,0.7)
・お手本画像D中のB領域の代表値:
(sHb,sSb,sVb)=(220,0.4,0.6)
・お手本画像D中のC領域の代表値:
(sHc,sSc,sVc)=(190,0.3,0.1)
・お手本画像D中のM領域の代表値:
(sHm,sSm,sVm)=(315,0.9,0.9)
・お手本画像D中のY領域の代表値:
(sHy,sSy,sSy)=( 70,0.4,0.3)
The ratio of the R region in the sample image D: sRateR_D = 25%
-Ratio of the G area in the model image D: sRateG_D = 15%
-Ratio of the B area in the sample image D: sRateB_D = 30%
The ratio of the C area in the sample image D: sRateC_D = 10%
-Ratio of the M area in the model image D: sRateM_D = 8%
The proportion of the Y area in the sample image D: sRateY_D = 12%
・ Representative value of R area in model image D:
(SHr, sSr, sVr) = (25, 0.3, 0.5)
・ Representative value of the G region in the model image D:
(SHg, sSg, sVg) = (120, 0.2, 0.7)
・ Representative value of area B in model image D:
(SHb, sSb, sVb) = (220, 0.4, 0.6)
・ Representative value of area C in model image D:
(SHc, sSc, sVc) = (190, 0.3, 0.1)
-Representative values of the M region in the model image D:
(SHm, sSm, sVm) = (315, 0.9, 0.9)
-Typical value of the Y area in the model image D:
(SHy, sSy, sSy) = (70, 0.4, 0.3)

・R領域がお手本画像E中に占める割合:sRateR_E=26%
・G領域がお手本画像E中に占める割合:sRateG_E=16%
・B領域がお手本画像E中に占める割合:sRateB_E=28%
・C領域がお手本画像E中に占める割合:sRateC_E=10%
・M領域がお手本画像E中に占める割合:sRateM_E= 8%
・Y領域がお手本画像E中に占める割合:sRateY_E=12%
・お手本画像E中のR領域の代表値:
(sHr,sSr,sVr)=( 25,0.3,0.55)
・お手本画像E中のG領域の代表値:
(sHg,sSg,sVg)=(125,0.2,0.7)
・お手本画像E中のB領域の代表値:
(sHb,sSb,sVb)=(220,0.45,0.6)
・お手本画像E中のC領域の代表値:
(sHc,sSc,sVc)=(190,0.3,0.15)
・お手本画像E中のM領域の代表値:
(sHm,sSm,sVm)=(320,0.9,0.9)
・お手本画像E中のY領域の代表値:
(sHy,sSy,sSy)=( 75,0.4,0.3)
The ratio of the R region in the sample image E: sRateR_E = 26%
-Ratio of the G area in the model image E: sRateG_E = 16%
-Ratio of the B area in the sample image E: sRateB_E = 28%
-Ratio of the C area in the model image E: sRateC_E = 10%
The ratio of the M area in the model image E: sRateM_E = 8%
The proportion of the Y area in the sample image E: sRateY_E = 12%
・ Representative value of R area in model image E:
(SHr, sSr, sVr) = (25, 0.3, 0.55)
・ Representative value of G area in model image E:
(SHg, sSg, sVg) = (125, 0.2, 0.7)
・ Representative value of area B in model image E:
(SHb, sSb, sVb) = (220, 0.45, 0.6)
・ Representative value of region C in model image E:
(SHc, sSc, sVc) = (190, 0.3, 0.15)
・ Representative value of M area in model image E:
(SHm, sSm, sVm) = (320, 0.9, 0.9)
-Representative value of the Y area in the model image E:
(SHy, sSy, sSy) = (75, 0.4, 0.3)

この場合は、お手本画像DとEは近似していると判断され、いずれか一方は提示の対象から除外される。すなわち、本実施形態においては、それぞれの色領域の割合(6種類)、及び、それぞれの色領域におけるH、S、Vごとの代表値(18種類)の計24種類の成分が全て近似している場合に、お手本画像同士が近似していることになる。また、複数の成分のうちの一部の成分が近似する第1特徴量が複数存在する場合に、当該複数の第1特徴量に対応するお手本画像同士が近似していると判断してもよい。また、3つ以上のお手本画像が近似していると判断した場合は、少なくとも1つのお手本画像を表示するよう構成することができる。すなわち、3つの近似するお手本画像のうち2つのお手本画像を表示するよう構成することもできる。   In this case, it is determined that the model images D and E are approximate, and one of them is excluded from the presentation target. In other words, in this embodiment, the total of 24 types of components, ie, the ratio of each color region (six types) and the representative values (18 types) for H, S, and V in each color region are all approximated. If there are, the model images are close to each other. In addition, when there are a plurality of first feature quantities that approximate some of the plurality of components, it may be determined that the model images corresponding to the plurality of first feature quantities are approximated. . In addition, when it is determined that three or more model images are approximate, at least one model image can be displayed. That is, it is possible to display two model images out of three approximate model images.

上述した表示画像の提示順序を考慮した実施態様によれば、ユーザが選択する可能性が高い画像を優先的に先に提示するので、選択効率が向上することになる。   According to the above-described embodiment in which the display image presentation order is considered, an image that is highly likely to be selected by the user is preferentially presented first, so that the selection efficiency is improved.

また、本発明における画像補正処理によれば、例えば、元画像として建物と空が写っている元画像に対し、空の青を鮮やかな海の青に変換したい場合は、お手本画像として鮮やかな海の写っている写真をスキャナで読み込むという作業によって、元画像の青色が鮮やかな海の青に変換することができる。   Further, according to the image correction processing in the present invention, for example, when it is desired to convert the sky blue to the bright sea blue with respect to the original image in which the building and the sky are reflected as the original image, You can convert the blue color of the original image into vivid sea blue by scanning the photo with the scanner.

また、人の顔が映っている画像において、肌色を明るくしたい場合は、明るい肌色として移っている手のひら等の写真をスキャナで読み込むという作業によって、元画像の肌色を明るい肌色に変換することができる。   Also, if you want to brighten the skin color in an image showing a human face, you can convert the skin color of the original image to a light skin color by reading a picture of the palm that has moved to a bright skin color with a scanner. .

ユーザは、パラメータの入力等の必要がないので、何ら専門的な知識が必要とせず、画像補正のお手本となる画像を読み取らせるだけで、所望の画像補正を行うことができる。さらに、画像補正を行う領域を自動的に選択可能であるので、知覚されにくい領域の変換を中止または低減し、知覚されやすい領域のみを変換することもできる。   Since the user does not need to input parameters or the like, he / she does not need any specialized knowledge and can perform desired image correction only by reading an image serving as a model for image correction. Furthermore, since it is possible to automatically select a region for performing image correction, it is possible to stop or reduce conversion of a region that is difficult to perceive and convert only a region that is easily perceived.

なお、本発明は前記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。例えば、スキャナからお手本画像を読み取ることに代えて、記憶媒体よりお手本画像として画像を読み取ることもできる。また、記憶媒体から元画像を読み取ることに代えて、スキャナより元画像を読み込むこともできる。例えば、画像処理装置として、スキャナおよびプリンタが搭載された複合機を実施形態としてあげたが、これに限らず、例えば、パーソナルコンピュータのような情報処理装置にて、画像補正を行い、情報処理装置に接続されたプリンタに印刷処理を行わせる構成であってもよい。   In addition, this invention is not limited to the said embodiment, Of course, various improvement and deformation | transformation are possible within the range which does not deviate from the summary of this invention. For example, instead of reading a model image from a scanner, the image can be read as a model image from a storage medium. Further, instead of reading the original image from the storage medium, the original image can be read from the scanner. For example, a multifunction machine equipped with a scanner and a printer is described as an embodiment as an image processing apparatus. However, the present invention is not limited to this. For example, an information processing apparatus such as a personal computer performs image correction, and the information processing apparatus. The printer may be configured to perform printing processing.

また、上述したフローチャートは単なる一例であり、上記処理と同等の結果を得ることできる処理であれば、他のフローチャートによって処理を実現してもよい。   Further, the above-described flowchart is merely an example, and the process may be realized by another flowchart as long as it can obtain a result equivalent to the above-described process.

また、上述した処理を実行するための画像処理方法としても本発明は実現可能である。さらに、当該画像処理方法をコンピュータで実行させるためのプログラム、及び、そのプログラムが記録された記録媒体としても本発明は実現可能である。   The present invention can also be realized as an image processing method for executing the above-described processing. Further, the present invention can be realized as a program for causing the computer to execute the image processing method and a recording medium on which the program is recorded.

さらに、補正された元画像を印刷するのみならず、記憶媒体に記憶したり、他の装置に送信することも可能である。   Furthermore, not only can the corrected original image be printed, but it can also be stored in a storage medium or transmitted to another device.

画像処理装置の外観を示した図である。It is the figure which showed the external appearance of the image processing apparatus. 画像処理装置の内部構成を示した図である。It is the figure which showed the internal structure of the image processing apparatus. ユーザの動作と画像処理装置の処理のフローを示した図である。It is the figure which showed the user's operation | movement and the flow of a process of an image processing apparatus. 本発明の第1実施形態における基本処理のフローチャートである。It is a flowchart of the basic processing in 1st Embodiment of this invention. 内部メモリに記憶される情報の一例を示した図である。It is the figure which showed an example of the information memorize | stored in an internal memory. 第2特徴量抽出処理のフローチャートである。It is a flowchart of the 2nd feature-value extraction process. 色相補正テーブルを示した図である。It is the figure which showed the hue correction table. 本発明の別の実施形態における基本処理のフローチャートである。It is a flowchart of the basic process in another embodiment of this invention. 代表値再設定処理のフローチャートである。It is a flowchart of a representative value reset process. 色相補正テーブルを示した図である。It is the figure which showed the hue correction table. 色相補正テーブルを示した図である。It is the figure which showed the hue correction table. 彩度補正テーブルを示した図である。It is the figure which showed the saturation correction table. 彩度補正のカーブの変化を示した図である。It is the figure which showed the change of the curve of saturation correction | amendment. B領域及びC領域における彩度補正テーブルを示した図である。It is the figure which showed the saturation correction table in B area | region and C area | region. B領域及びC領域における補正されたS値を示した図である。It is the figure which showed the corrected S value in B area | region and C area | region. B領域及びC領域の一部が変換対象となることを示した図である。It is the figure which showed that a part of B area | region and C area | region became conversion object. 本発明の別の実施形態における基本処理のフローチャートである。It is a flowchart of the basic process in another embodiment of this invention.

1 画像処理装置
2 スキャナ
3 メモリスロット
4 操作パネル
5 排出口
6 表示手段
10 プリンタ
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Scanner 3 Memory slot 4 Operation panel 5 Ejection port 6 Display means 10 Printer

Claims (11)

記憶手段、表示手段、画像特定手段、画像取得手段、特徴量抽出手段、画像補正手段を備える画像処理装置において、
前記記憶手段は、複数種類の第1画像それぞれについて、当該第1画像から抽出された第1特徴量であって、前記第1画像の色合いに関する第1の代表値であり、色情報に基づいて分割される領域ごとに特定される前記第1の代表値を含む前記第1特徴量当該第1画像を縮小して作成した第3画像とを対応付けて記憶し、
前記表示手段は、前記記憶手段に記憶された複数の前記第3画像を表示部に表示し、
前記画像特定手段は、ユーザからの入力に応じて、前記複数の第3画像から1つの第3画像を特定し、
前記画像取得手段は、第2画像を取得し、
前記特徴量抽出手段は、前記第2画像に基いて、前記第2画像の色合いに関する第2の代表値であり、前記領域ごとに特定される前記第2の代表値を含む第2特徴量を抽出し、
前記画像補正変換手段は、前記特定手段により特定された1つの第3画像に対応する前記第1特徴量及び前記第2特徴量に基いて、前記第2代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第2代表値以外の値については、補間することにより、前記第2画像を画像補正する、
ことを特徴とする画像処理装置。
In an image processing apparatus comprising storage means, display means, image specifying means, image acquisition means, feature amount extraction means, and image correction means,
The storage means is a first feature value extracted from the first image for each of a plurality of types of first images , and is a first representative value relating to a hue of the first image, and is based on color information. said first feature quantity including a first representative value which is specified for each divided by area, and a third image created by reducing the first image, the association is stored,
The display means displays a plurality of the third images stored in the storage means on a display unit,
The image specifying means specifies one third image from the plurality of third images in response to an input from a user,
The image acquisition means acquires a second image,
The feature quantity extraction means is a second representative value that is a second representative value related to the hue of the second image based on the second image and includes the second representative value specified for each region. Extract and
The image correction conversion means, based on the first feature value and the second feature value corresponding to one third image specified by the specifying means, for the second representative value, for the same region Correcting to the first representative value specified, and correcting the second image by interpolation for values other than the second representative value ;
An image processing apparatus.
前記第1特徴量及び前記第2特徴量に基づいて、補正データを作成する補正データ作成手段を備え、
前記画像補正手段は、前記補正データに基づいて前記第2画像を画像補正する、ことを特徴とする請求項1に記載の画像処理装置。
Correction data creating means for creating correction data based on the first feature quantity and the second feature quantity;
The image processing apparatus according to claim 1, wherein the image correction unit corrects the second image based on the correction data.
前記特徴量抽出手段は、
前記第2画像から色相に関する特徴量を抽出し、
当該色相に関する特徴量に基いて前記第2画像を複数の領域に分割し、
分割した領域ごとに色相以外に関する特徴量を抽出し、
前記第2特徴量は、前記色相に関する特徴量及び前記色相以外に関する特徴量であり、
前記第1特徴量は、前記第2特徴量と同種類の特徴量を有し、
前記色相に関する特徴量には、色相ごとに、当該特徴量の基となった前記第1画像全体に占める領域の割合が含まれ、
色相特定手段をさらに有し、
前記色相特定手段は、前記第2画像が分割された複数の領域のうち、最も大きい面積を有する領域の色相を特定色相として特定し、当該特定色相の領域が前記第2画像中に占める割合を特定色相割合として特定し、
前記表示手段は、前記特定色相割合に近い前記特定色相の領域の割合を有した前記第1特徴量に対応した第3画像ほど優先して表示する、
ことを特徴とする請求項1または2に記載の画像処理装置。
The feature amount extraction means includes:
Extracting feature values related to hue from the second image;
Dividing the second image into a plurality of regions based on a feature amount relating to the hue;
Extract features other than hue for each divided area,
The second feature amount is a feature amount related to the hue and a feature amount related to other than the hue,
The first feature amount has the same type of feature amount as the second feature amount,
The feature amount related to the hue includes, for each hue, the ratio of the area in the entire first image that is the basis of the feature amount,
A hue specifying means;
The hue specifying unit specifies a hue of a region having the largest area as a specific hue among a plurality of regions obtained by dividing the second image, and determines a ratio of the specific hue region in the second image. Specified as a specific hue ratio,
The display means preferentially displays a third image corresponding to the first feature amount having a ratio of the specific hue area close to the specific hue ratio.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記特徴量抽出手段は、
前記第2画像から色相に関する特徴量を抽出し、
当該色相に関する特徴量に基いて前記第2画像を複数の領域に分割し、
分割した領域ごとに色相以外に関する特徴量を抽出し、
前記第2特徴量は、前記色相に関する特徴量及び前記色相以外に関する特徴量であり、
前記第1特徴量は、前記第2特徴量と同種類の特徴量を有し、
前記色相に関する特徴量には、色相ごとに、当該特徴量の基となった前記第1画像全体に占める領域の割合が含まれ、
前記複数の第1画像それぞれから抽出された第1特徴量は、上記割合が最も大きい領域の色相に基いてグループ化されており、
色相特定手段をさらに有し、
前記色相特定手段は、前記第2画像が分割された複数の領域のうち、最も大きい面積を有する領域の色相を特定色相として特定し、当該特定色相の領域が前記第2画像中に占める割合を特定色相割合として特定し、
前記表示手段は、前記特定色相に対応するグループに存在し、かつ、前記特定色相割合に近い前記特定色相の領域の割合を有した前記第1特徴量に対応した第3画像ほど優先して表示する、
ことを特徴とする請求項1または2の画像処理装置。
The feature amount extraction means includes:
Extracting feature values related to hue from the second image;
Dividing the second image into a plurality of regions based on a feature amount relating to the hue;
Extract features other than hue for each divided area,
The second feature amount is a feature amount related to the hue and a feature amount related to other than the hue,
The first feature amount has the same type of feature amount as the second feature amount,
The feature amount related to the hue includes, for each hue, the ratio of the area in the entire first image that is the basis of the feature amount,
The first feature amount extracted from each of the plurality of first images is grouped based on the hue of the region having the largest ratio,
A hue specifying means;
The hue specifying unit specifies a hue of a region having the largest area as a specific hue among a plurality of regions obtained by dividing the second image, and determines a ratio of the specific hue region in the second image. Specified as a specific hue ratio,
The display means preferentially displays a third image corresponding to the first feature amount that exists in a group corresponding to the specific hue and has a ratio of the specific hue area close to the specific hue ratio. To
The image processing apparatus according to claim 1 or 2, characterized in that:
前記複数の第1特徴量は、それぞれ複数の成分を有し、
当該複数の成分の一部または全部が近似する第1特徴量が複数存在する場合に、当該複数の第1特徴量に対応する複数の第3画像については、少なくとも1つの第3画像を残し、他の第3画像を前記表示手段による前記表示部への表示の対象から除外する、
ことを特徴とする請求項3または4に記載の画像処理装置。
Each of the plurality of first feature amounts has a plurality of components,
In the case where there are a plurality of first feature quantities that approximate some or all of the plurality of components, with respect to the plurality of third images corresponding to the plurality of first feature quantities, at least one third image is left, Excluding other third images from being displayed on the display unit by the display means;
The image processing apparatus according to claim 3, wherein the image processing apparatus is an image processing apparatus.
前記第1特徴量が生成された時期に基いて、前記除外する他の第3画像を決定する、
ことを特徴とする請求項5に記載の画像処理装置。
Determining another third image to be excluded based on the time when the first feature value is generated;
The image processing apparatus according to claim 5.
前記補正データ作成手段は、
前記第1画像を分割した領域ごとに、前記色相に関する特徴量の代表値、及び、前記色相以外に関する特徴量を抽出し、
前記第2画像を分割した領域ごとに、前記色相に関する特徴量の代表値、及び前記色相以外に関する特徴量を抽出し、
前記第1画像の色相に関する特徴量の代表値及び前記第2画像の色相に関する特徴量の代表値に基いて色相補正データを作成し、
前記画像補正手段は、
前記第2画像の画素ごとの色相に関する特徴量を、前記色相補正データに基いて補正し、
前記第2画像の画素ごとの色相以外に関する特徴量を、前記領域ごとの代表値に基いて補正する、
ことを特徴とする請求項3〜6のいずれかに記載の画像処理装置。
The correction data creating means includes
For each region obtained by dividing the first image, extract a representative value of the feature value related to the hue and a feature value related to other than the hue,
For each region obtained by dividing the second image, extract a representative value of the feature value related to the hue and a feature value related to other than the hue,
Creating hue correction data based on the representative value of the feature quantity related to the hue of the first image and the representative value of the feature quantity related to the hue of the second image;
The image correcting means includes
Correcting a feature amount related to a hue for each pixel of the second image based on the hue correction data;
Correcting a feature amount related to other than the hue for each pixel of the second image based on a representative value for each region;
The image processing apparatus according to claim 3, wherein the image processing apparatus is an image processing apparatus.
印刷制御手段をさらに有し、
前記印刷制御手段は、前記画像補正された第2画像情報を印刷するための処理を行う、ことを特徴とする請求項1〜7のいずれかに記載の画像処理装置。
A printing control unit;
The image processing apparatus according to claim 1, wherein the print control unit performs a process for printing the image-corrected second image information.
前記色相に関する特徴量は、HSV空間におけるH値に基いて算出される、
ことを特徴とする請求項3〜8に記載の画像処理装置。
The feature amount related to the hue is calculated based on the H value in the HSV space.
The image processing apparatus according to claim 3, wherein the image processing apparatus is an image processing apparatus.
複数種類の第1画像それぞれについて、当該第1画像から抽出された第1特徴量であって、前記第1画像の色合いに関する第1の代表値であり、色情報に基づいて分割される領域ごとに特定される前記第1の代表値を含む前記第1特徴量と、当該第1画像を縮小して作成した第3画像と、が対応付けて記憶されている記憶手段に記憶された複数種類の前記第3画像を表示部に表示する表示ステップ、
ユーザからの入力に応じて、複数の前記第3画像から1つの第3画像を特定する特定ステップ、
第2画像を取得する画像取得ステップ、
前記第2画像に基いて、前記第2画像の色合いに関する第2の代表値であり、前記領域ごとに特定される前記第2の代表値を含む第2特徴量を抽出する特徴量抽出ステップ、
前記特定ステップにおいて特定された1つの第3画像に対応する前記第1特徴量及び前記第2特徴量に基いて、前記第2代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第2代表値以外の値については、補間することにより、前記第2画像を画像補正する画像補正ステップ、
からなる
とを特徴とする画像処理方法。
For each of the plurality of types of first images, the first feature value extracted from the first image, which is a first representative value related to the hue of the first image, and is divided based on color information A plurality of types stored in a storage unit in which the first feature value including the first representative value specified in the above and a third image created by reducing the first image are stored in association with each other display step of displaying the third image on the display unit of,
A specifying step of specifying one third image from the plurality of third images in response to an input from the user;
An image acquisition step of acquiring a second image;
A feature quantity extraction step for extracting a second feature quantity that is a second representative value related to the hue of the second image and includes the second representative value specified for each region based on the second image ;
Based on the first feature value and the second feature value corresponding to one third image specified in the specifying step, the second representative value is specified for the same region. An image correction step of correcting the second image by correcting the representative image and interpolating values other than the second representative value ;
Consist of ,
An image processing method characterized by and this.
コンピュータに、
複数種類の第1画像それぞれについて、当該第1画像から抽出された第1特徴量であって、前記第1画像の色合いに関する第1の代表値であり、色情報に基づいて分割される領域ごとに特定される前記第1の代表値を含む前記第1特徴量と、当該第1画像を縮小して作成した第3画像と、が対応付けて記憶されている記憶手段に記憶された複数種類の前記第3画像を表示部に表示する表示ステップ、
ユーザからの入力に応じて、複数の前記第3画像から1つの第3画像を特定する特定ステップ、
第2画像を取得する画像取得ステップ、
前記第2画像に基いて、前記第2画像の色合いに関する第2の代表値であり、前記領域ごとに特定される前記第2の代表値を含む第2特徴量を抽出する特徴量抽出ステップ、
前記特定ステップにおいて特定された1つの第3画像に対応する前記第1特徴量及び前記第2特徴量に基いて、前記第2代表値については、同一の前記領域について特定される前記第1の代表値に補正し、前記第2代表値以外の値については、補間することにより、前記第2画像を画像補正する画像補正ステップ、
を実行させる、
像処理プログラム。
On the computer,
For each of the plurality of types of first images, the first feature value extracted from the first image, which is a first representative value related to the hue of the first image, and is divided based on color information A plurality of types stored in a storage unit in which the first feature value including the first representative value specified in the above and a third image created by reducing the first image are stored in association with each other display step of displaying the third image on the display unit of,
A specifying step of specifying one third image from the plurality of third images in response to an input from the user;
An image acquisition step of acquiring a second image;
A feature quantity extraction step for extracting a second feature quantity that is a second representative value related to the hue of the second image and includes the second representative value specified for each region based on the second image ;
Based on the first feature value and the second feature value corresponding to one third image specified in the specifying step, the second representative value is specified for the same region. An image correction step of correcting the second image by correcting the representative image and interpolating values other than the second representative value ;
Ru allowed to run,
Images processing program.
JP2007226584A 2007-08-31 2007-08-31 Image processing apparatus, image processing method, and image processing printing program Expired - Fee Related JP4831019B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007226584A JP4831019B2 (en) 2007-08-31 2007-08-31 Image processing apparatus, image processing method, and image processing printing program
US12/202,872 US8174731B2 (en) 2007-08-31 2008-09-02 Image processing device outputting image for selecting sample image for image correction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007226584A JP4831019B2 (en) 2007-08-31 2007-08-31 Image processing apparatus, image processing method, and image processing printing program

Publications (2)

Publication Number Publication Date
JP2009060429A JP2009060429A (en) 2009-03-19
JP4831019B2 true JP4831019B2 (en) 2011-12-07

Family

ID=40555741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007226584A Expired - Fee Related JP4831019B2 (en) 2007-08-31 2007-08-31 Image processing apparatus, image processing method, and image processing printing program

Country Status (1)

Country Link
JP (1) JP4831019B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09172553A (en) * 1995-12-19 1997-06-30 Toppan Printing Co Ltd Gradation correction device
JPH09284583A (en) * 1996-04-17 1997-10-31 Toppan Printing Co Ltd Color correction device
JP2005202469A (en) * 2004-01-13 2005-07-28 Fuji Xerox Co Ltd Image processor, image processing method and program

Also Published As

Publication number Publication date
JP2009060429A (en) 2009-03-19

Similar Documents

Publication Publication Date Title
JP4442664B2 (en) Image processing apparatus, image processing method, and image processing program
JP5116393B2 (en) Image processing apparatus and image processing method
KR100374019B1 (en) Image processing method and apparatus, image processing system, and storage medium
US20090027732A1 (en) Image processing apparatus, image processing method, and computer program
US8174731B2 (en) Image processing device outputting image for selecting sample image for image correction
US20060165280A1 (en) Image processing method, image processing apparatus and program
US8040563B2 (en) Printing method, printing apparatus, corresponding table creating method and programs
JP4389977B2 (en) Image printing apparatus, image printing method, and image printing program
US8633943B2 (en) Image display apparatus, image display method, and program storage medium for arranging and displaying images of a plurality of tones
JP4985243B2 (en) Image processing apparatus and image processing program
JP4433017B2 (en) Image processing apparatus and image processing program
US8094343B2 (en) Image processor
JP4831019B2 (en) Image processing apparatus, image processing method, and image processing printing program
JP2000182045A (en) Method and picture for processing picture, picture processing system and recording medium
JP4826562B2 (en) Image processing apparatus, image processing method, and image processing program
JP4831020B2 (en) Image processing apparatus, image processing method, and image processing program
US8159716B2 (en) Image processing device performing image correction by using a plurality of sample images
JP4442665B2 (en) Image processing apparatus and image processing program
JP4840295B2 (en) Image processing apparatus and image processing program
JP4442663B2 (en) Image processing apparatus and image processing program
JP5045836B2 (en) Image processing apparatus and image processing program
JP6292010B2 (en) Image processing device
JP2013110615A (en) Image processing apparatus
JP2019205071A (en) Image processing apparatus, image processing method, and recording medium
JP2006180185A (en) Color adjustment method, color adjustment apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110905

R150 Certificate of patent or registration of utility model

Ref document number: 4831019

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140930

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees