JP2009060388A - Image processor and image processing program - Google Patents

Image processor and image processing program Download PDF

Info

Publication number
JP2009060388A
JP2009060388A JP2007226088A JP2007226088A JP2009060388A JP 2009060388 A JP2009060388 A JP 2009060388A JP 2007226088 A JP2007226088 A JP 2007226088A JP 2007226088 A JP2007226088 A JP 2007226088A JP 2009060388 A JP2009060388 A JP 2009060388A
Authority
JP
Japan
Prior art keywords
image
correction
feature
value
corrected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007226088A
Other languages
Japanese (ja)
Other versions
JP4985243B2 (en
Inventor
Tomohiko Hasegawa
智彦 長谷川
Maki Kondo
真樹 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2007226088A priority Critical patent/JP4985243B2/en
Priority to US12/202,872 priority patent/US8174731B2/en
Publication of JP2009060388A publication Critical patent/JP2009060388A/en
Application granted granted Critical
Publication of JP4985243B2 publication Critical patent/JP4985243B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text

Abstract

<P>PROBLEM TO BE SOLVED: To efficiently select data to be utilized for image correction by setting image correction intuitively and predicting the kind of image correction to be performed before image correction processing. <P>SOLUTION: An original image to be subjected to color conversion is inputted from a memory card (S101), and the second amount of feature expressing the feature of the inputted original image is specified (S103, S104). A plurality of types of model images are inputted (S106-S109), and a first amount of feature expressing the feature of each model image is specified (S111, S112). A correction image expressing a color conversion processing result when color conversion processing is performed to an original image to bring the second amount of feature closer to the first amount of feature, is generated for the first amount of feature in each model image (S114). A plurality of correction images thus generated are printed in an index format arranged corresponding to each model image used for generating each correction image (S116-S118). <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像補正処理を行うための画像処理装置及び画像処理プログラムに関するものである。   The present invention relates to an image processing apparatus and an image processing program for performing image correction processing.

従来、ユーザの好みに応じた画像補正を行う画像処理装置が知られている。
例えば、あらかじめ用意されている複数種類の調整用データの中から1つの調整用データを選択したり、任意の調整用データを設定したりすることで特定された調整用データに基づき、画像調整を行う構成のものがある(特許文献1参照)。
特開2007−89179号公報
2. Description of the Related Art Conventionally, an image processing apparatus that performs image correction according to user preferences is known.
For example, image adjustment is performed based on the adjustment data specified by selecting one adjustment data from a plurality of types of adjustment data prepared in advance or by setting arbitrary adjustment data. There exists a structure to perform (refer patent document 1).
JP 2007-89179 A

しかしながら、前述したような構成で所望の画像補正が行われるような調整用データを設定するためには、画像に関する専門知識が必要となり、直感的に設定を行うことは困難であった。また、調整用データを利用することによりどのような画像補正が施されるのかを画像補正処理前に予測することは難しく、利用する調整用データの選択や設定に関し効率のよいものではなかった。   However, in order to set adjustment data so that desired image correction is performed with the above-described configuration, specialized knowledge about images is required, and it is difficult to set intuitively. In addition, it is difficult to predict what image correction is performed by using the adjustment data before the image correction process, and the selection and setting of the adjustment data to be used is not efficient.

本発明は、こうした問題にかんがみてなされたものであり、画像補正の設定を直感的に行うことが可能であり、かつ、どのような画像補正が施されるのかを画像補正処理前に予測可能で画像補正に利用するデータを効率よく選定できる画像処理装置及び画像処理プログラムを提供することを目的としている。   The present invention has been made in view of these problems, and it is possible to intuitively set image correction and predict what image correction will be performed before the image correction processing. An object of the present invention is to provide an image processing apparatus and an image processing program that can efficiently select data used for image correction.

上記目的を達成するためになされた本発明の請求項1に記載の画像処理装置は、複数種類の第1画像を入力可能な第1画像入力手段と、第1画像入力手段により入力された第1画像の特徴を表す第1特徴量を、入力された第1画像ごとに特定する第1特徴量特定手段と、画像補正の対象とする画像である第2画像を入力する第2画像入力手段と、第2画像入力手段により入力された第2画像の特徴を表す第2特徴量を特定する第2特徴量特定手段と、第2特徴量を第1特徴量に近づけるように第2画像に対する画像補正処理を行った場合の画像補正処理結果を表す補正イメージ画像を、複数の第1特徴量のそれぞれについて生成するイメージ画像生成手段と、イメージ画像生成手段により生成された複数の補正イメージ画像を、各補正イメージ画像の生成に用いた第1特徴量が特定された第1画像とそれぞれ対応付けて配置した状態で出力するイメージ画像出力手段とを備える。   In order to achieve the above object, an image processing apparatus according to claim 1 of the present invention includes a first image input means capable of inputting a plurality of types of first images, and a first image input means input by the first image input means. First feature amount specifying means for specifying a first feature amount representing the feature of one image for each input first image, and second image input means for inputting a second image that is an image to be corrected And a second feature amount specifying means for specifying a second feature amount representing the feature of the second image input by the second image input means, and a second feature amount for the second image so as to be close to the first feature amount. An image image generation unit that generates a corrected image image representing an image correction process result when the image correction process is performed for each of the plurality of first feature amounts, and a plurality of correction image images generated by the image image generation unit. , Each correction image And an image image output means for outputting a state in which the first feature quantity arranged in correspondence respectively with the first image identified used to generate the image.

このような画像処理装置によれば、ユーザは、第1画像を用いて画像補正を行う場合に、所望の補正結果が得られる第1画像を効率よく選定することができる。すなわち、画像補正の設定を直感的に行うための手法として、第1画像をユーザに指定させ、第2画像の特徴を第1画像の特徴に近づけるように画像補正処理を行う構成が考えられる。このような構成では、所望の補正結果が得られる第1画像の選定が重要となるが、本発明の画像処理装置によれば、複数の第1画像に対する補正イメージ画像が出力されるため、ユーザは、補正イメージ画像を参考にして第1画像を効率よく選定することができる。   According to such an image processing apparatus, when performing image correction using the first image, the user can efficiently select the first image from which a desired correction result is obtained. In other words, as a method for intuitively setting image correction, a configuration in which the user designates the first image and performs image correction processing so that the feature of the second image approaches the feature of the first image is conceivable. In such a configuration, it is important to select a first image from which a desired correction result can be obtained. However, according to the image processing apparatus of the present invention, since a corrected image for a plurality of first images is output, the user Can efficiently select the first image with reference to the corrected image.

そして、請求項2に記載の画像処理装置は、第2画像入力手段により入力された第2画像を加工した加工画像を生成する加工画像生成手段を備え、イメージ画像生成手段は、加工画像生成手段により生成された加工画像に対する画像補正処理を行うことにより補正イメージ画像を生成する。このようにすれば、第2画像に対して実際に画像補正処理を行った結果に基づき補正イメージ画像を生成する場合に比べ、補正イメージ画像を生成する処理を簡素化することが可能となる。   The image processing apparatus according to claim 2 includes a processed image generating unit that generates a processed image obtained by processing the second image input by the second image input unit, and the image image generating unit includes the processed image generating unit. A corrected image is generated by performing image correction processing on the processed image generated by the above. In this way, it is possible to simplify the process of generating the corrected image compared to the case of generating the corrected image based on the result of actually performing the image correction process on the second image.

具体的には、例えば請求項3に記載のように、加工画像生成手段は、第2画像入力手段により入力された第2画像を縮小した画像を加工画像として生成するとよい。
ここで、請求項4に記載の画像処理装置は、イメージ画像出力手段により出力された補正イメージ画像のうちの1つを選択する選択手段と、第2特徴量を選択手段により選択された補正イメージ画像の生成に用いた第1特徴量に近づけるように第2画像に対する画像補正処理を行う画像補正手段とを備える。
Specifically, for example, as described in claim 3, the processed image generation unit may generate an image obtained by reducing the second image input by the second image input unit as a processed image.
Here, the image processing apparatus according to claim 4 includes a selection unit that selects one of the corrected image images output from the image image output unit, and a correction image that is selected by the selection unit as the second feature amount. Image correction means for performing image correction processing on the second image so as to approach the first feature used for generating the image.

このような画像処理装置によれば、補正イメージ画像の中から1つを選択することで、第1画像を再度入力することなく、その補正イメージ画像の表す画像補正処理を行うことができる。   According to such an image processing apparatus, by selecting one of the corrected image images, it is possible to perform the image correction process represented by the corrected image image without inputting the first image again.

特に、請求項5に記載のように、画像補正手段により画像補正処理が行われた第2画像を印刷するための印刷処理を行う印刷制御手段を備えていれば、補正イメージ画像の中から1つを選択することで、その補正イメージ画像の表す画像補正処理が行われた第2画像を印刷することができる。   In particular, as described in claim 5, if the printing control means for performing the printing process for printing the second image subjected to the image correction process by the image correction means is provided, one of the corrected image images is selected. By selecting one, it is possible to print the second image that has been subjected to the image correction processing represented by the corrected image.

一方、請求項6に記載の画像処理装置では、イメージ画像生成手段は、第2画像に対して実際に画像補正処理を行った結果に基づき補正イメージ画像を生成するものである。そして、この画像処理装置は、イメージ画像出力手段により出力された補正イメージ画像のうちの1つを選択する選択手段と、イメージ画像生成手段により画像補正処理が行われた第2画像のうち選択手段により選択された補正イメージ画像に対応するものを印刷するための印刷処理を行う印刷制御手段とを備える。   On the other hand, in the image processing apparatus according to the sixth aspect, the image image generating means generates a corrected image based on a result of actually performing the image correction process on the second image. The image processing apparatus includes a selection unit that selects one of the corrected image images output from the image image output unit, and a selection unit that selects the second image subjected to the image correction process by the image image generation unit. And a print control means for performing a printing process for printing an image corresponding to the corrected image selected by (1).

このような画像処理装置によれば、補正イメージ画像の中から1つを選択することで、その補正イメージ画像を生成した際に行われた画像補正処理結果を利用して、第1画像を再度入力することなく、その補正イメージ画像の表す画像補正処理が行われた第2画像を印刷することができる。   According to such an image processing apparatus, by selecting one of the corrected image images, the first image is again generated using the image correction processing result performed when the corrected image image is generated. Without the input, it is possible to print the second image that has been subjected to the image correction processing represented by the corrected image.

また、請求項7に記載の画像処理装置では、イメージ画像出力手段は、補正イメージ画像及びその補正イメージ画像の生成に用いた第1特徴量が特定された第1画像をその第1特徴量に基づいて配置する。このような画像処理装置によれば、複数の補正イメージ画像を比較しやすくすることができる。   In the image processing apparatus according to claim 7, the image image output means uses, as the first feature amount, the first image in which the corrected feature image and the first feature amount used for generating the corrected image image are specified. Arrange based on. According to such an image processing device, it is possible to easily compare a plurality of corrected image images.

一方、請求項8に記載の画像処理装置では、第1画像入力手段は、所定の読取位置にセットされた印刷媒体から光学的に読み取られる画像を入力するものであり、読取位置にセットされた印刷媒体から複数の画像が読み取られた場合に、各画像をそれぞれ独立した第1画像として入力可能である。   On the other hand, in the image processing apparatus according to claim 8, the first image input means inputs an image optically read from a print medium set at a predetermined reading position, and is set at the reading position. When a plurality of images are read from the print medium, each image can be input as an independent first image.

このような画像処理装置によれば、ユーザは、複数の印刷媒体を一度に読取位置にセットしたり、複数の画像が印刷された印刷媒体を読取位置にセットしたりすることで、複数の第1画像を容易に読み取らせることが可能となり、作業時間を短縮することができる。   According to such an image processing apparatus, the user sets a plurality of print media at a reading position at a time or sets a printing medium on which a plurality of images are printed at a reading position. One image can be easily read, and the working time can be shortened.

具体的には、例えば請求項9に記載のように、第1画像入力手段は、読取位置を複数に分割した各読取領域で読み取られる画像を独立した第1画像として入力するようにすれば、複数の画像の認識を比較的正確に行うことができる。   Specifically, as described in claim 9, for example, the first image input means inputs an image read in each reading area obtained by dividing the reading position into a plurality of images as an independent first image. A plurality of images can be recognized relatively accurately.

また、請求項10に記載の画像処理装置において、第1画像入力手段は、所定の読取位置にセットされた印刷媒体から光学的に読み取られる画像を入力するものであり、読取位置を複数に分割した各読取領域で読み取られる画像をそれぞれ独立した第1画像として入力し、イメージ画像出力手段は、補正イメージ画像及びその補正イメージ画像の生成に用いた第1特徴量が特定された第1画像を読取領域ごとに対応付けられた所定の位置に配置する。   The image processing apparatus according to claim 10, wherein the first image input means inputs an image optically read from a print medium set at a predetermined reading position, and the reading position is divided into a plurality of parts. The image read in each reading area is input as an independent first image, and the image image output means outputs the corrected image and the first image in which the first feature amount used for generating the corrected image is specified. It is arranged at a predetermined position associated with each reading area.

このような画像処理装置によれば、請求項8及び請求項9と同様、ユーザは、複数の印刷媒体を一度に読取位置にセットしたり、複数の画像が印刷された印刷媒体を読取位置にセットしたりすることで、複数の第1画像を容易に読み取らせることが可能となり、作業時間を短縮することができる。また、複数の画像の認識を比較的正確に行うことができる。加えて、補正イメージ画像及び第1画像の配置にユーザの意思を反映させることができる。   According to such an image processing apparatus, as in the eighth and ninth aspects, the user sets a plurality of print media at the reading position at once, or sets the print medium on which a plurality of images are printed at the reading position. By setting it, it becomes possible to easily read a plurality of first images, and the working time can be shortened. In addition, a plurality of images can be recognized relatively accurately. In addition, the user's intention can be reflected in the arrangement of the corrected image and the first image.

そして特に、例えば請求項11に記載のように、第1画像入力手段が、読取領域で読み取られた画像の平均輝度値が所定値以上の場合には、その読取領域には画像が存在しないと判定するようにすれば、画像が存在しない部分を第1画像として入力してしまうことを防ぐことができる。   In particular, as described in claim 11, for example, when the average luminance value of the image read in the reading area is not less than a predetermined value, the first image input means has no image in the reading area. By determining, it is possible to prevent a portion where no image exists from being input as the first image.

また、請求項12に記載の画像処理装置では、イメージ画像出力手段は、補正イメージ画像及びその補正イメージ画像の生成に用いた第1特徴量が特定された第1画像を印刷出力する。このような画像処理装置によれば、補正イメージ画像をディスプレイ等の表示手段に表示することにより出力する場合に比べ、補正イメージ画像が印刷された際の色合い等を正確に出力することができる。   In the image processing apparatus according to the twelfth aspect, the image image output means prints out the corrected image and the first image in which the first feature amount used for generating the corrected image is specified. According to such an image processing device, it is possible to accurately output the color tone or the like when the corrected image is printed, as compared with the case where the corrected image is output by being displayed on a display unit such as a display.

次に、請求項13に記載の画像処理プログラムは、複数種類の第1画像を入力可能な第1画像入力手段と、第1画像入力手段により入力された第1画像の特徴を表す第1特徴量を、入力された第1画像ごとに特定する第1特徴量特定手段と、画像補正の対象とする画像である第2画像を入力する第2画像入力手段と、第2画像入力手段により入力された第2画像の特徴を表す第2特徴量を特定する第2特徴量特定手段と、第2特徴量を第1特徴量に近づけるように第2画像に対する画像補正処理を行った場合の画像補正処理結果を表す補正イメージ画像を、複数の第1特徴量のそれぞれについて生成するイメージ画像生成手段と、イメージ画像生成手段により生成された複数の補正イメージ画像を、各補正イメージ画像の生成に用いた第1特徴量が特定された第1画像とそれぞれ対応付けて配置した状態で出力するイメージ画像出力手段としてコンピュータを機能させる。   Next, an image processing program according to a thirteenth aspect of the present invention is a first image input unit capable of inputting a plurality of types of first images, and a first feature representing a feature of the first image input by the first image input unit. The first feature amount specifying means for specifying the amount for each input first image, the second image input means for inputting the second image as the image to be corrected, and the second image input means An image when the second feature amount specifying means for specifying the second feature amount representing the feature of the second image and the image correction processing on the second image so that the second feature amount is close to the first feature amount An image image generation unit that generates a correction image image representing the correction processing result for each of the plurality of first feature amounts, and a plurality of correction image images generated by the image image generation unit are used to generate each correction image image. The first special The amount causes the computer to function as an image an image output means for outputting in a state of being arranged in correspondence respectively with the first image specified.

このような画像処理プログラムによれば、請求項1に記載の画像処理装置としてコンピュータを機能させることができ、これにより前述した効果を得ることができる。   According to such an image processing program, it is possible to cause a computer to function as the image processing apparatus according to the first aspect, thereby obtaining the above-described effects.

以下、本発明が適用された実施形態について、図面を用いて説明する。
[1.第1実施形態]
[1−1.全体構成]
図1は、第1実施形態の画像処理装置としての複合機10の外観を示す斜視図である。
Embodiments to which the present invention is applied will be described below with reference to the drawings.
[1. First Embodiment]
[1-1. overall structure]
FIG. 1 is a perspective view showing an appearance of a multifunction machine 10 as an image processing apparatus according to the first embodiment.

この複合機10は、プリンタ機能の他、スキャナ機能やカラーコピー機能等を有したものであり、本体ケーシング11における上部位置に、原稿の読み取りに用いられる画像読取部20を備えている。   The multifunction machine 10 has a printer function, a scanner function, a color copy function, and the like, and includes an image reading unit 20 used for reading a document at an upper position in the main body casing 11.

画像読取部20は、原稿載置面(ガラス台)にセット(載置)された原稿から画像を光学的に読み取るいわゆるフラットベッドスキャナである。ここで、原稿載置面は、その上面が薄板状の原稿カバー21によって覆われており、原稿カバー21を上方へ開くことにより、原稿載置面への原稿のセット及びセットされた原稿の除去(つまり原稿の出し入れ)が可能となる。また、原稿カバー21における原稿載置面と対向する側の面は白色となっており、原稿カバー21が閉じられた状態(図1に示す状態)で画像の読み取りが行われた場合に、原稿載置面における原稿の載置されていない部分は白色に読み取られる。   The image reading unit 20 is a so-called flatbed scanner that optically reads an image from a document set (placed) on a document placement surface (glass table). Here, the upper surface of the document placement surface is covered with a thin plate-like document cover 21, and the document cover 21 is opened upward to set the document on the document placement surface and remove the set document. (In other words, it is possible to put a document in and out). Further, the surface of the document cover 21 opposite to the document placement surface is white, and the document is read when the image is read with the document cover 21 closed (the state shown in FIG. 1). The portion of the placement surface where no document is placed is read in white.

一方、複合機10は、画像読取部20の前方位置(手前側の位置)に、各種操作ボタンを配置した操作部31及びメッセージ等の画像を表示する表示部(例えば液晶ディスプレイ)32からなる操作パネル30を備えている。   On the other hand, the multifunction device 10 includes an operation unit 31 in which various operation buttons are arranged at a front position (front side position) of the image reading unit 20 and a display unit (for example, a liquid crystal display) 32 that displays an image such as a message. A panel 30 is provided.

また、複合機10は、画像読取部20の下方位置に、用紙等の印刷媒体にカラー画像を印刷可能な画像印刷部40を備えている。この画像印刷部40で画像が印刷された用紙は、本体ケーシング11の前面に形成された開口12から排紙される。   In addition, the multifunction machine 10 includes an image printing unit 40 that can print a color image on a printing medium such as paper at a position below the image reading unit 20. The sheet on which the image is printed by the image printing unit 40 is discharged from the opening 12 formed on the front surface of the main body casing 11.

さらに、複合機10は、本体ケーシング11の前面における開口12の上方位置に、SDカードやCFカード等の各種メモリカード(可搬型記憶媒体)を挿入可能なカードスロット50を備えている。また、複合機10は、パーソナルコンピュータ等の情報処理装置を介さずに直接メモリカードから画像(デジタルスチルカメラで撮影した画像等)を読み取ってその画像を印刷する機能(いわゆるダイレクトプリント機能)を有している。   Furthermore, the multifunction machine 10 includes a card slot 50 into which various memory cards (portable storage media) such as an SD card and a CF card can be inserted at a position above the opening 12 on the front surface of the main casing 11. The multifunction device 10 has a function (so-called direct print function) for reading an image (such as an image taken with a digital still camera) directly from a memory card and printing the image without using an information processing device such as a personal computer. is doing.

次に、複合機10の制御系について説明する。
図2は、複合機10の制御系の概略構成を示すブロック図である。
同図に示すように、複合機10は、前述した画像読取部20、操作パネル30、画像印刷部40及びカードスロット50と、通信部60と、制御部70とを備えており、これらは信号線80を介して接続されている。
Next, a control system of the multifunction machine 10 will be described.
FIG. 2 is a block diagram illustrating a schematic configuration of a control system of the multifunction machine 10.
As shown in the figure, the multifunction machine 10 includes the image reading unit 20, the operation panel 30, the image printing unit 40, the card slot 50, the communication unit 60, and the control unit 70 described above. They are connected via a line 80.

通信部60は、通信ケーブル(LANケーブル)が接続された状態でその通信ケーブルを介したデータの送受信処理を行う。つまり、外部装置との間でデータ通信を行うためのものであり、例えば、LANに存在するパーソナルコンピュータや、インターネット上に存在するウェブサーバとの間でデータ通信が可能となっている。   The communication unit 60 performs data transmission / reception processing via the communication cable in a state where the communication cable (LAN cable) is connected. That is, it is for performing data communication with an external device. For example, data communication can be performed with a personal computer in a LAN or a web server on the Internet.

制御部70は、CPU71、ROM72、RAM73等からなるマイクロコンピュータを中心に構成されており、複合機10を構成する各部を統括制御する。また、ROM72には、後述する色変換処理をCPU71に実行させるためのプログラムが記憶されている。   The control unit 70 is configured mainly with a microcomputer including a CPU 71, a ROM 72, a RAM 73, and the like, and performs overall control of each unit constituting the multifunction machine 10. The ROM 72 stores a program for causing the CPU 71 to execute a color conversion process described later.

[1−2.色変換処理の概要]
次に、複合機10が行う色変換処理の概要について説明する。
本実施形態の複合機10は、色変換対象の画像に対し、色変換の見本となる画像(以下「お手本画像」ともいう。)に基づく色変換処理を行う。ここで、まず、このような色変換処理の基本的な流れについて、図3を用いて説明する。
[1-2. Overview of color conversion process]
Next, an outline of color conversion processing performed by the multifunction machine 10 will be described.
The MFP 10 according to the present embodiment performs color conversion processing based on an image (hereinafter also referred to as “example image”) serving as a sample for color conversion on an image to be subjected to color conversion. Here, first, the basic flow of such color conversion processing will be described with reference to FIG.

ユーザが、お手本画像の印刷された原稿(例えば写真)を画像読取部20の原稿載置面にセットし、操作部31で原稿読取操作を行うと(1)、複合機10は、原稿載置面における設定範囲(L版サイズ、A4サイズ等、ユーザによって設定された範囲)からお手本画像を読み取る(2)。これにより、原稿載置面にセットされた原稿からお手本画像が読み込まれる。   When a user sets a document (for example, a photograph) on which a model image is printed on the document placement surface of the image reading unit 20 and performs a document reading operation with the operation unit 31 (1), the multifunction machine 10 places the document on the document. A model image is read from a set range on the surface (a range set by the user, such as L size and A4 size) (2). As a result, the model image is read from the document set on the document placement surface.

次に、ユーザが、色変換の対象とする画像が記憶されたメモリカードをカードスロット50に挿入すると(3)、複合機10は、挿入されたメモリカードを認識し、ユーザに対し、メモリカードに記憶されている画像のうち色変換の対象とするものを選択させる(4)。なお、ユーザに画像を選択させるための処理としては、公知の処理(例えば、メモリカードに記憶されている各画像を表示部32に表示させて操作部31での操作により選択させる処理)を適宜採用可能である。   Next, when the user inserts a memory card storing an image to be color-converted into the card slot 50 (3), the multi-function device 10 recognizes the inserted memory card and notifies the user of the memory card. The image to be subjected to color conversion is selected from the images stored in (4). In addition, as a process for making a user select an image, a well-known process (For example, the process which displays each image memorize | stored in the memory card on the display part 32, and makes it select by operation in the operation part 31) suitably. It can be adopted.

そして、色変換対象の画像がユーザにより選択されると(5)、複合機10は、選択された画像を読み込む(6)。なお、以下の説明において、当該画像を「元画像」ということがある。   When the user selects a color conversion target image (5), the multifunction machine 10 reads the selected image (6). In the following description, the image may be referred to as an “original image”.

その後、複合機10は、画像読取部20から読み込んだお手本画像を見本として、メモリカードから読み込んだ元画像を補正する処理を行う(7)。
なお、ここでは、画像読取部20からお手本画像を読み込んだ後にメモリカードから元画像を読み込む手順を例示したが、これに限定されるものではなく、先にメモリカードから元画像を読み込み、その後に画像読取部20からお手本画像を読み込むようにしてもよい。
Thereafter, the multifunction machine 10 performs a process of correcting the original image read from the memory card using the model image read from the image reading unit 20 as a sample (7).
Here, the procedure for reading the original image from the memory card after reading the model image from the image reading unit 20 is illustrated, but the present invention is not limited to this, and the original image is read from the memory card first, and then A model image may be read from the image reading unit 20.

このような色変換処理によれば、ユーザは、お手本画像を用いることで、元画像の色変換を簡単な操作でかつ感覚的に行うことができる。
具体的には、例えば、建物と空が写っている元画像に対し、空の青を鮮やかな海の青に変換したい場合は、鮮やかな海の写っているお手本画像を用いることによって、元画像の青色を鮮やかな海の青に変換することができる。
According to such color conversion processing, the user can perform color conversion of the original image with a simple operation and sensuously by using the model image.
Specifically, for example, if you want to convert the sky blue to the vivid ocean blue for the original image that contains the building and the sky, you can use the model image that captures the vivid ocean. Blue can be converted into vivid sea blue.

また、人の顔が映っている元画像に対し、肌色を明るく変換したい場合は、明るい肌色の写っているお手本画像を用いることによって、元画像の肌色を明るい肌色に変換することができる。   Further, when it is desired to brightly convert the skin color with respect to the original image in which the human face is reflected, the skin color of the original image can be converted into a bright skin color by using a model image showing a bright skin color.

このように、ユーザは、何ら専門的な知識を必要とせず、お手本画像を画像読取部20に読み取らせるだけで、所望の色変換を行うことができる。
しかしながら、ユーザが所望の補正結果を得るには、複数種類のお手本画像を何度も試すことにより所望の補正結果が得られるお手本画像を探す必要があった。
As described above, the user can perform desired color conversion only by causing the image reading unit 20 to read the model image without requiring any specialized knowledge.
However, in order for the user to obtain a desired correction result, it is necessary to search for a model image that can obtain a desired correction result by repeatedly testing a plurality of types of model images.

そこで、本実施形態の複合機10では、1つの元画像に対して複数種類のお手本画像を入力可能とし、各お手本画像とそのお手本画像に対する補正結果のサムネイル画像を一覧印刷(インデックス印刷)することで、所望の補正結果が得られるお手本画像を効率よく選定できるようにしている。   Therefore, in the MFP 10 of the present embodiment, a plurality of types of model images can be input for one original image, and each model image and thumbnail images of the correction results for the model image are printed as a list (index printing). Thus, it is possible to efficiently select a model image from which a desired correction result can be obtained.

[1−3.色変換処理の具体的内容]
以下、本実施形態の複合機10が行う色変換処理の具体的内容について説明する。
[1−3−1.色変換処理]
図4は、CPU71が実行する色変換処理のフローチャートである。
[1-3. Specific contents of color conversion processing]
Hereinafter, specific contents of the color conversion process performed by the multifunction machine 10 of the present embodiment will be described.
[1-3-1. Color conversion process]
FIG. 4 is a flowchart of the color conversion process executed by the CPU 71.

CPU71は、色変換処理を開始すると、まず、S101で、メモリカードに記憶されている色変換対象の画像(元画像)をRAM73に読み込む。なお、読み込む画像の形式は特に限定されないが、本実施形態ではRGB形式を前提として説明する。   When the CPU 71 starts the color conversion process, first, in S 101, the image (original image) stored in the memory card is read into the RAM 73. Although the format of the image to be read is not particularly limited, the present embodiment will be described on the assumption that the RGB format is used.

続いて、S102では、S101で読み込んだ元画像のサムネイル画像を生成する。すなわち、元画像に対し、あらかじめ設定されているサムネイル画像のサイズとなるようにサイズ変更処理(縮小処理)を行う。なお、元画像はサムネイル画像よりも大きいことが通常であるため、ここではサイズ変更処理として縮小処理を行うと説明しているが、元画像がサムネイル画像のサイズよりも小さい場合には、サイズ変更処理として拡大処理を行うことになる。また、サイズ変更処理としては、例えば、ニアレストネイバー法、バイリニア法、バイキュービック法、縮小に限定すれば平均画素法などを用いることができる。   Subsequently, in S102, a thumbnail image of the original image read in S101 is generated. That is, a size change process (reduction process) is performed on the original image so as to have a preset thumbnail image size. Since the original image is usually larger than the thumbnail image, it is explained here that the reduction process is performed as the size change process. However, if the original image is smaller than the thumbnail image size, the size is changed. An enlargement process is performed as a process. As the size changing process, for example, a nearest neighbor method, a bilinear method, a bicubic method, and an average pixel method can be used if limited to reduction.

続いて、S103では、S101で読み込んだ元画像(S102で生成したサムネイル画像ではない)を構成する各画素をHSVパラメータ(H値:0〜360、S値及びV値:0〜1)に変換する処理を行う。   Subsequently, in S103, each pixel constituting the original image read in S101 (not the thumbnail image generated in S102) is converted into HSV parameters (H value: 0 to 360, S value and V value: 0 to 1). Perform the process.

なお、RGBからHSVパラメータへの変換や、HSVからRGBへの変換は、以下に示す公知の変換式に従い行うことができる。
(1)RGB⇒HSVの変換式
max(a,b,c)はa,b,cの中で最も大きい値を表す。
min(a,b,c)はa,b,cの中で最も小さい値を表す。
V = max(R/255,G/255,B/255)
Vが0でない時、
S = [V - min(R,G,B)] ÷ V
Vが0の時、
S = 0
[V - min(R,G,B)]が0でない時、
r = (V - R/255)÷(V-min(R,G,B)
g = (V - G/255)÷(V-min(R,G,B)
b = (V - B/255)÷(V-min(R,G,B)
[V - min(R,G,B)]が0の時、
r = 0
g = 0
b = 0
V = R/255の時
H = 60 × (b-g)
V = G/255の時
H = 60 × (2+r-g)
V = B/255の時
H = 60 × (4+g-r)
ただしH<0の時
H = H+360
として、RGBからHSVへ変換される。また、HSVからRGBへは、
(2)HSV⇒RGBの変換式
(以下で示すin, fl, m, nは、HSVからRGBを算出する過程で利用する媒介変数である)
in を (H/60)の整数部分
fl を (H/60)の小数部分とする。
in が偶数の場合
fl = 1-fl
m = V × (1-S)
n = V × (1-S×fl)
inが0の時
R = V × 255
G = n × 255
B = m × 255
inが1の時
R = n × 255
G = V × 255
B = m × 255
inが2の時
R = m × 255
G = V × 255
B = n × 255
inが3の時
R = m × 255
G = n × 255
B = V × 255
inが4の時
R = n × 255
G = m × 255
B = V × 255
inが5の時
R = V × 255
G = m × 255
B = n × 255
として変換される。
Note that the conversion from RGB to HSV parameters and the conversion from HSV to RGB can be performed according to the known conversion formulas shown below.
(1) RGB → HSV conversion formula
max (a, b, c) represents the largest value among a, b, and c.
min (a, b, c) represents the smallest value among a, b, and c.
V = max (R / 255, G / 255, B / 255)
When V is not 0
S = [V-min (R, G, B)] ÷ V
When V is 0
S = 0
When [V-min (R, G, B)] is not 0,
r = (V-R / 255) ÷ (V-min (R, G, B)
g = (V-G / 255) / (V-min (R, G, B)
b = (V-B / 255) / (V-min (R, G, B)
When [V-min (R, G, B)] is 0,
r = 0
g = 0
b = 0
When V = R / 255
H = 60 × (bg)
When V = G / 255
H = 60 × (2 + rg)
When V = B / 255
H = 60 × (4 + gr)
However, when H <0
H = H + 360
Are converted from RGB to HSV. Also, from HSV to RGB,
(2) HSV-> RGB conversion formula
(In, fl, m, and n shown below are parameters used in the process of calculating RGB from HSV)
in the integer part of (H / 60)
Let fl be the fractional part of (H / 60).
If in is an even number
fl = 1-fl
m = V × (1-S)
n = V × (1-S × fl)
When in is 0
R = V × 255
G = n × 255
B = m × 255
When in is 1
R = n × 255
G = V × 255
B = m × 255
When in is 2
R = m × 255
G = V × 255
B = n × 255
When in is 3
R = m × 255
G = n × 255
B = V × 255
When in is 4
R = n × 255
G = m × 255
B = V × 255
When in is 5
R = V × 255
G = m × 255
B = n × 255
Is converted as

続いて、S104では、S103での変換処理により得られたHSVパラメータに基づいて、元画像の特徴を表す特徴量である第2特徴量を特定する第2特徴量特定処理を行う。なお、第2特徴量特定処理の具体的な処理内容については後述する(図7)。   Subsequently, in S104, based on the HSV parameter obtained by the conversion process in S103, a second feature quantity specifying process for specifying a second feature quantity that represents a feature quantity of the original image is performed. The specific processing content of the second feature amount specifying processing will be described later (FIG. 7).

続いて、S105では、S101で読み込んだ元画像と、S104で特定した第2特徴量とを、RAM73における記憶維持領域に記憶させる。ここで、記憶維持領域とは、少なくとも本色変換処理が終了されるまで記憶情報が保持される領域(他の情報によって上書きされない領域)のことである。つまり、本色変換処理が終了されるまでの間、元画像及び第2特徴量の記憶状態が保証される。なお、記憶手段はRAM73に限定されるものではなく、例えば複合機10がハードディスクを備えている場合にはハードディスクに記憶させてもよい。   Subsequently, in S105, the original image read in S101 and the second feature amount specified in S104 are stored in the storage maintenance area in the RAM 73. Here, the storage maintenance area is an area in which stored information is held at least until the main color conversion process is completed (an area that is not overwritten by other information). That is, the storage state of the original image and the second feature value is guaranteed until the main color conversion process is completed. The storage means is not limited to the RAM 73. For example, when the multifunction machine 10 includes a hard disk, it may be stored in the hard disk.

続いて、S106では、画像読取部20の原稿載置面全域を1つの全体画像として読み取る。なお、読み取った画像の形式は特に限定されないが、本実施形態ではRGB形式を前提として説明する。   Subsequently, in S106, the entire document placement surface of the image reading unit 20 is read as one whole image. Although the format of the read image is not particularly limited, the present embodiment will be described on the assumption of the RGB format.

続いて、S107では、S106で読み取った全体画像から、お手本画像を抽出する。本実施形態では、原稿載置面を複数に分割した各読取領域で読み取られる画像を独立したお手本画像として認識するようにしている。具体的には、例えば図5(b)に示すように、原稿載置面を縦横にそれぞれ二分して4つの読取領域に分割することが可能であり、この場合には、図5(a)に示すように複数(図の例では3枚)の写真をセットすれば、図5(c)に示すように各写真の画像が独立した画像として認識される。したがって、この段階では、写真がセットされていない読取領域(図5(c)でいうImage1)についても、1つの画像(白色の画像)として認識されることになる。なお、読取領域の分割数は、あらかじめ設定されていてもよく、ユーザが設定できるようにしてもよい。   Subsequently, in S107, a model image is extracted from the entire image read in S106. In this embodiment, an image read in each reading area obtained by dividing the document placement surface into a plurality of parts is recognized as an independent model image. More specifically, for example, as shown in FIG. 5B, the document placement surface can be divided into four reading areas by dividing the original placement surface into two vertically and horizontally. In this case, FIG. If a plurality of photos (three in the example shown in the figure) are set as shown in FIG. 5, the images of the photos are recognized as independent images as shown in FIG. Therefore, at this stage, the reading area (Image 1 in FIG. 5C) where no photograph is set is also recognized as one image (white image). Note that the number of divisions of the reading area may be set in advance or may be set by the user.

続いて、S108では、S107で抽出した各お手本画像のうち、画像全体の平均輝度値meanVが、あらかじめ設定されているしきい値ThreV(例えば0.97)以上のものが存在するか否かを判定する。ここで、しきい値ThreVは、画像読取部20の原稿載置面に原稿がセットされているか否かの判定基準値として設定されており、平均輝度値meanVがしきい値ThreV以上の場合(白色のみの画像と判断される場合)には、原稿が存在しない可能性が高いことになる。   Subsequently, in S108, it is determined whether or not there is a sample image extracted in S107 having an average luminance value meanV of the entire image equal to or higher than a preset threshold value ThreV (for example, 0.97). judge. Here, the threshold value ThreV is set as a reference value for determining whether or not a document is set on the document placement surface of the image reading unit 20, and the average luminance value meanV is equal to or greater than the threshold value ThreV ( If it is determined that the image is white only), there is a high possibility that the document does not exist.

そして、S108で、平均輝度値meanVがしきい値ThreV以上のお手本画像が存在すると判定した場合には、S109へ移行し、そのお手本画像を排除した後、S110へ移行する。つまり、前述した図5の例では、4つの読取領域のうちImage1で読み取られた画像(白色の画像)が排除される。   If it is determined in S108 that there is a model image whose average luminance value meanV is equal to or greater than the threshold value ThreV, the process proceeds to S109, and after the model image is excluded, the process proceeds to S110. That is, in the example of FIG. 5 described above, an image (white image) read by Image1 is excluded from the four reading regions.

一方、S108で、平均輝度値meanVがしきい値ThreV以上のお手本画像が存在しないと判定した場合には、そのままS110へ移行する。
S110では、S106〜S109の処理の結果として抽出された複数種類のお手本画像のうちの1つ(S110〜S114の処理をまだ行っていないもの)を処理対象として選択し、そのお手本画像のサムネイル画像を生成する。すなわち、お手本画像に対し、S102と同様のサイズ変更処理(縮小処理)を行う。なお、お手本画像もサムネイル画像よりも大きいことが通常であるため、ここではサイズ変更処理として縮小処理を行うと説明しているが、お手本画像がサムネイル画像のサイズよりも小さい場合には、サイズ変更処理として拡大処理を行うことになる。
On the other hand, if it is determined in S108 that there is no model image having the average luminance value meanV equal to or greater than the threshold value ThreV, the process proceeds to S110 as it is.
In S110, one of a plurality of types of model images extracted as a result of the processing in S106 to S109 (that has not been subjected to the processing in S110 to S114) is selected as a processing target, and the thumbnail image of the model image is selected. Is generated. That is, the size change process (reduction process) similar to S102 is performed on the model image. Since the model image is usually larger than the thumbnail image, it is explained here that the reduction process is performed as the size change process. However, if the model image is smaller than the thumbnail image size, the size is changed. An enlargement process is performed as a process.

続いて、S111では、S110で処理対象として選択したお手本画像(S110で生成したサムネイル画像ではない)を構成する各画素をHSVパラメータに変換する処理を行う。   Subsequently, in S111, a process of converting each pixel constituting the model image (not the thumbnail image generated in S110) selected as the processing target in S110 into an HSV parameter is performed.

続いて、S112では、S111での変換処理により得られたHSVパラメータに基づいて、お手本画像の特徴を表す特徴量である第1特徴量を特定する第1特徴量特定処理を行う。なお、第1特徴量特定処理の具体的な処理内容については後述する(図8)。   Subsequently, in S112, based on the HSV parameter obtained by the conversion process in S111, a first feature quantity specifying process for specifying a first feature quantity that is a feature quantity representing the feature of the model image is performed. The specific processing content of the first feature quantity specifying process will be described later (FIG. 8).

続いて、S113では、S112で特定した第1特徴量を、処理対象のお手本画像の識別情報と対応付けて、S105と同様、RAM73における記憶維持領域に記憶させる。ここで、既に別のお手本画像についての第1特徴量が記憶維持領域に記憶されている場合には、その第1特徴量の記憶状態を維持しつつ、新たに追加する形で記憶させる。したがって、S110〜S114の処理が繰り返されることにより、複数のお手本画像についての複数の第1特徴量がRAM73に記憶されることになる。なお、ここでいうお手本画像の識別情報は、S106〜S109の処理の結果として抽出された複数種類のお手本画像の中から処理対象のお手本画像を識別可能な情報であればよく、例えば、処理対象とした順番を表す数値を識別情報とすることができる。   Subsequently, in S113, the first feature amount specified in S112 is associated with the identification information of the model image to be processed and stored in the storage maintenance area in the RAM 73, as in S105. Here, if the first feature value for another model image is already stored in the storage maintenance area, the first feature value is stored in a newly added form while maintaining the storage state of the first feature value. Therefore, by repeating the processing of S110 to S114, a plurality of first feature values for a plurality of model images are stored in the RAM 73. The identification information of the model image here may be information that can identify the model image to be processed from a plurality of types of model images extracted as a result of the processing of S106 to S109. A numerical value indicating the order can be used as identification information.

続いて、S114では、S112で特定した第1特徴量(処理対象のお手本画像の第1特徴量)及びS104で特定した第2特徴量に基づいて、S102で生成した元画像のサムネイル画像を補正する。なお、具体的な補正方法については後述する。   Subsequently, in S114, the thumbnail image of the original image generated in S102 is corrected based on the first feature amount specified in S112 (first feature amount of the model image to be processed) and the second feature amount specified in S104. To do. A specific correction method will be described later.

続いて、S115では、すべてのお手本画像についてS110〜S114の処理を行ったか否かを判定する。なお、すべてのお手本画像について処理を行ったか否かは、S106〜S109の処理の結果として抽出されたお手本画像の数だけ処理を繰り返したか否かに基づき判定することができる。   Subsequently, in S115, it is determined whether or not the processing of S110 to S114 has been performed for all the model images. Note that whether or not all the model images have been processed can be determined based on whether or not the processing has been repeated by the number of model images extracted as a result of the processing of S106 to S109.

そして、S115で、すべてのお手本画像について処理を行っていない(未処理のお手本画像が存在する)と判定した場合には、S110に戻る。
一方、S115で、すべてのお手本画像について処理を行ったと判定した場合には、S116へ移行し、各お手本画像について特定した第1特徴量に基づき、インデックス印刷を行う際のサムネイル画像の配置(レイアウト位置)を決定する。なお、具体的な処理内容については後述する。
If it is determined in S115 that processing has not been performed for all the model images (an unprocessed model image exists), the process returns to S110.
On the other hand, if it is determined in S115 that the processing has been performed for all the model images, the process proceeds to S116, and the arrangement (layout) of thumbnail images when performing index printing based on the first feature amount specified for each model image. Position). Specific processing contents will be described later.

続いて、S117では、S116で決定したレイアウト位置に従い、S110で生成した各お手本画像のサムネイル画像と、そのお手本画像を見本としてS114で補正した補正後の元画像のサムネイル画像(以下「補正イメージ画像」ともいう。)とを、インデックス用バッファに配置する。具体的には、図6に示すように、お手本画像の右側にそのお手本画像に基づく色変換処理結果を表す補正イメージ画像を配置して1組(ワンセット)とし、各お手本画像の左側に画像番号(この例では自然数による連番)を配置する。なお、インデックス用バッファとは、インデックス印刷用の画像を一時的に記憶するためにRAM73において用意された記憶領域のことである。   Subsequently, in S117, in accordance with the layout position determined in S116, the thumbnail image of each model image generated in S110 and the thumbnail image of the original image after correction corrected in S114 using the model image as a model (hereinafter referred to as “corrected image image”). Is also placed in the index buffer. Specifically, as shown in FIG. 6, correction image images representing color conversion processing results based on the model image are arranged on the right side of the model image to form one set (one set), and the image is displayed on the left side of each model image. A number (sequential number by a natural number in this example) is arranged. The index buffer is a storage area prepared in the RAM 73 for temporarily storing an image for index printing.

続いて、S118では、インデックス用バッファに配置されているインデックス印刷用の画像(図6)を画像印刷部40に印刷させる。これにより、ユーザは、どのお手本画像によりどのような色変換処理結果が得られるかを一目で把握することができる。そして、ユーザは、所望の色変換処理結果が得られる画像番号を操作部31で指定する操作を行うことにより、その画像番号に対応するお手本画像で元画像を補正した画像を印刷することができる。   In step S118, the image printing unit 40 is caused to print an index printing image (FIG. 6) arranged in the index buffer. Thereby, the user can grasp at a glance what color conversion processing result is obtained by which model image. The user can print an image obtained by correcting the original image with the model image corresponding to the image number by performing an operation of designating the image number from which the desired color conversion processing result is obtained by the operation unit 31. .

すなわち、CPU71は、S119で、操作部31で行われる操作に基づき画像番号を入力する。
続いて、S120では、S119で入力した画像番号のお手本画像から特定された第1特徴量(そのお手本画像の識別情報と対応付けて記憶されている第1特徴量)をRAM73における記憶維持領域から読み出す。
That is, the CPU 71 inputs an image number based on the operation performed on the operation unit 31 in S119.
Subsequently, in S120, the first feature amount specified from the model image having the image number input in S119 (the first feature amount stored in association with the identification information of the model image) is stored from the storage maintenance area in the RAM 73. read out.

続いて、S121では、S120で読み出した第1特徴量と、記憶維持領域に記憶されている第2特徴量に基づいて、記憶維持領域に記憶されている元画像(サムネイル画像ではない)を補正する。なお、具体的な補正方法については後述する。   Subsequently, in S121, based on the first feature value read in S120 and the second feature value stored in the storage maintenance area, the original image (not the thumbnail image) stored in the storage maintenance area is corrected. To do. A specific correction method will be described later.

続いて、S122では、S121で補正された補正後の元画像を画像印刷部40に印刷させた後、本色変換処理を終了する。
[1−3−2.第2特徴量特定処理]
次に、色変換処理(図4)におけるS104で行われる第2特徴量特定処理について、図7のフローチャートを用いて説明する。なお、この第2特徴量特定処理においては、H値は、−30〜330の値をとるものとし、H値がこの範囲内にない場合は、H値を適宜変換することにより(例えば、“H値+360×n”又は“H値−360×n”、nは整数)、この範囲内に調整する。
Subsequently, in S122, after the original image corrected in S121 is printed on the image printing unit 40, the main color conversion process is terminated.
[1-3-2. Second feature value specifying process]
Next, the second feature amount specifying process performed in S104 in the color conversion process (FIG. 4) will be described with reference to the flowchart of FIG. In the second feature amount specifying process, the H value takes a value of −30 to 330. If the H value is not within this range, the H value is appropriately converted (for example, “ H value + 360 × n ”or“ H value−360 × n ”, where n is an integer), and adjust within this range.

CPU71は、第2特徴量特定処理を開始すると、まず、S201で、元画像を複数の領域に分割する。本実施形態では、一般的に用いられる6つの色相に基づいて分割する。具体的には、それぞれの画素のH値に基づき、
・R領域: −30以上〜30未満
・Y領域: 30以上〜90未満
・G領域: 90以上〜150未満
・C領域: 150以上〜210未満
・B領域: 210以上〜270未満
・M領域: 270以上〜330未満
に分割する。つまり、元画像の構成画素をその色相値に応じた上記分類基準に従い、6つの分類項目に分類する処理を行う。なお、これらの領域とH値の対応関係はあくまでも一例であり、適宜変更可能なものである。
When the CPU 71 starts the second feature amount specifying process, first, in S201, the CPU 71 divides the original image into a plurality of regions. In this embodiment, the image is divided based on six commonly used hues. Specifically, based on the H value of each pixel,
-R region: -30 or more and less than 30-Y region: 30 or more and less than 90-G region: 90 or more and less than 150-C region: 150 or more and less than 210-B region: 210 or more and less than 270-M region: Divide into 270 or more and less than 330. That is, a process of classifying the constituent pixels of the original image into six classification items according to the classification standard corresponding to the hue value. The correspondence relationship between these areas and the H value is merely an example, and can be changed as appropriate.

続いて、S202では、S201で分割した領域ごとに、各領域が元画像中に占める割合と、各領域に属する構成画素の特徴を表す代表値(HSV値)とを、第2特徴量として算出する。   Subsequently, in S202, for each region divided in S201, the ratio of each region in the original image and the representative value (HSV value) representing the characteristics of the constituent pixels belonging to each region are calculated as the second feature amount. To do.

ここで、各領域の代表値(HSV値)を、以下のように定義する。
・R領域の代表値:iHr,iSr,iVr
・G領域の代表値:iHg,iSg,iVg
・B領域の代表値:iHb,iSb,iVb
・C領域の代表値:iHc,iSc,iVc
・M領域の代表値:iHm,iSm,iVm
・Y領域の代表値:iHy,iSy,iSy
本実施形態では、各領域に属する構成画素のHSV値それぞれの平均値を代表値として特定する。なお、代表値は平均値に限定されるものではなく、例えば中間値を用いることもできる。
Here, the representative value (HSV value) of each region is defined as follows.
・ Representative value of R region: iHr, iSr, iVr
・ Representative value of G region: iHg, iSg, iVg
・ Representative value of B area: iHb, iSb, iVb
-Typical value of C region: iHc, iSc, iVc
-Typical values in the M region: iHm, iSm, iVm
・ Representative value of Y area: iHy, iSy, iSy
In this embodiment, the average value of each HSV value of the constituent pixels belonging to each region is specified as a representative value. The representative value is not limited to the average value, and for example, an intermediate value can be used.

また、各領域が元画像中に占める割合を、以下のように定義する。
・R領域が元画像中に占める割合:iRateR
・G領域が元画像中に占める割合:iRateG
・B領域が元画像中に占める割合:iRateB
・C領域が元画像中に占める割合:iRateC
・M領域が元画像中に占める割合:iRateM
・Y領域が元画像中に占める割合:iRateY
例えばR領域については、
iRateR=(元画像中のR領域の画素数)÷(元画像の全画素数)
とすることができる。なお、他の式によって定義してもよい。
Further, the ratio of each area in the original image is defined as follows.
-Ratio of R area in original image: iRateR
-Ratio of the G area in the original image: iRateG
-Ratio of B area in original image: iRateB
-Ratio of the C area in the original image: iRateC
-Ratio of M area in original image: iRateM
The ratio of the Y area in the original image: iRateY
For example, for the R region:
iRateR = (number of pixels in the R region in the original image) / (total number of pixels in the original image)
It can be. In addition, you may define by another type | formula.

[1−3−3.第1特徴量特定処理]
次に、前述した色変換処理(図4)におけるS112で行われる第1特徴量特定処理について、図8のフローチャートを用いて説明する。なお、この第1特徴量特定処理では、前述した第2特徴量特定処理(図7)で元画像に対して行った処理と同様の処理を、お手本画像に対して行う。
[1-3-3. First feature amount specifying process]
Next, the first feature amount specifying process performed in S112 in the color conversion process (FIG. 4) described above will be described with reference to the flowchart of FIG. In the first feature amount specifying process, the same processing as that performed on the original image in the second feature amount specifying process (FIG. 7) described above is performed on the model image.

すなわち、CPU71は、第1特徴量特定処理を開始すると、まず、S301で、処理対象のお手本画像を6つの領域に分割する。この処理内容は、第2特徴量特定処理におけるS201の処理と同様であるので、具体的な説明については省略する。   That is, when starting the first feature amount specifying process, the CPU 71 first divides the model image to be processed into six regions in S301. Since this processing content is the same as the processing of S201 in the second feature amount specifying processing, a detailed description thereof will be omitted.

続いて、S302では、お手本画像に対し、第2特徴量特定処理におけるS202の処理と同様の処理を行うことにより、第1特徴量を算出する。ここでは、各領域の代表値(HSV値)を、以下のように定義する。
・R領域の代表値:sHr,sSr,sVr
・G領域の代表値:sHg,sSg,sVg
・B領域の代表値:sHb,sSb,sVb
・C領域の代表値:sHc,sSc,sVc
・M領域の代表値:sHm,sSm,sVm
・Y領域の代表値:sHy,sSy,sSy
また、各領域がお手本画像中に占める割合を、以下のように定義する。
・R領域がお手本画像中に占める割合:sRateR
・G領域がお手本画像中に占める割合:sRateG
・B領域がお手本画像中に占める割合:sRateB
・C領域がお手本画像中に占める割合:sRateC
・M領域がお手本画像中に占める割合:sRateM
・Y領域がお手本画像中に占める割合:sRateY
[1−3−4.元画像の補正処理]
次に、前述した色変換処理(図4)におけるS114及びS121で行われる元画像(S114では元画像のサムネイル画像。以下同様に読み替える。)の補正処理の具体的方法について説明する。この処理は、元画像の各画素のH値、S値、V値をそれぞれ変換することによって行われる。
Subsequently, in S302, the first feature value is calculated by performing the same process as the process of S202 in the second feature value specifying process on the model image. Here, the representative value (HSV value) of each region is defined as follows.
-Typical values of R region: sHr, sSr, sVr
-Typical values in the G region: sHg, sSg, sVg
-Typical values of the B region: sHb, sSb, sVb
-Typical value of C region: sHc, sSc, sVc
-Typical values in the M region: sHm, sSm, sVm
-Typical values of the Y region: sHy, sSy, sSy
Further, the ratio of each area in the model image is defined as follows.
The ratio of the R region in the model image: sRateR
-Ratio of the G area in the model image: sRateG
-Ratio of area B in the model image: sRateB
-Ratio of the C area in the model image: sRateC
-Ratio of M area in the model image: sRateM
The ratio of the Y area in the model image: sRateY
[1-3-4. Original image correction processing]
Next, a specific method of the correction process of the original image (the thumbnail image of the original image in S114, which will be read in the same manner below) performed in S114 and S121 in the color conversion process (FIG. 4) described above will be described. This process is performed by converting the H value, S value, and V value of each pixel of the original image.

まず、H値における変換処理について説明する。
第2特徴量のH値の代表値をX軸にとり、第1特徴量のH値の代表値をY軸にとって領域ごとのH値の代表値をプロットする。そしてプロットされた点の間を、例えば線形補間することにより、図9に示す色相補正テーブルを作成する。ここで、この色相補正テーブルによる補正後のH値(Y軸のH値)をH’とし、H’<0の場合は、H’=H’+360とし、H’>360の場合は、H’=H’−360とする。
First, the conversion process for the H value will be described.
The representative value of the H value of the second feature value is plotted on the X axis and the representative value of the H value of the first feature value is plotted on the Y axis, and the representative value of the H value for each region is plotted. Then, a hue correction table shown in FIG. 9 is created by linear interpolation between the plotted points, for example. Here, the H value after correction by the hue correction table (H value of the Y-axis) is H ′. When H ′ <0, H ′ = H ′ + 360, and when H ′> 360, H ′> 360. '= H'-360.

そして、元画像のそれぞれの画素に対し、上記色相補正テーブルを適用することによって、H値を補正する。具体的には、補正後のH’は、以下の式で定義することができる。
H’=(y2-y1)÷(x2-x1) × H
- (y2-y1)÷(x2-x1) × x2 + y2
・・・(式1)
ここで、x1,x2,y1,y2は、以下のように定義される。
Then, the H value is corrected by applying the hue correction table to each pixel of the original image. Specifically, H ′ after correction can be defined by the following equation.
H ′ = (y2−y1) ÷ (x2−x1) × H
-(y2-y1) ÷ (x2-x1) x x2 + y2
... (Formula 1)
Here, x1, x2, y1, and y2 are defined as follows.

H<iHrのときは、
(x1,y1)= (iHm−360,sHm−360)
(x2,y2)= (iHr,sHr)
iHr≦H<iHyのときは、
(x1,y1)= (iHr,sHr)
(x2,y2)= (iHy,sHy)
iHy≦H<iHgのときは、
(x1,y1)= (iHy,sHy)
(x2,y2)= (iHg,sHg)
iHg≦H<iHcのときは、
(x1,y1)= (iHg,sHg)
(x2,y2)= (iHc,sHc)
iHc≦H<iHbのときは、
(x1,y1)= (iHc,sHc)
(x2,y2)= (iHb,sHb)
iHb≦H<iHmのときは、
(x1,y1)= (iHb,sHb)
(x2,y2)= (iHm,sHm)
iHm≦Hのときは、
(x1,y1)= (iHm,sHm)
(x2,y2)= (iHr+360,sHr+360)
次に、S値及びV値における変換について説明する。
When H <iHr,
(X1, y1) = (iHm-360, sHm-360)
(X2, y2) = (iHr, sHr)
When iHr ≦ H <iHy,
(X1, y1) = (iHr, sHr)
(X2, y2) = (iHy, sHy)
When iHy ≦ H <iHg,
(X1, y1) = (iHy, sHy)
(X2, y2) = (iHg, sHg)
When iHg ≦ H <iHc,
(X1, y1) = (iHg, sHg)
(X2, y2) = (iHc, sHc)
When iHc ≦ H <iHb,
(X1, y1) = (iHc, sHc)
(X2, y2) = (iHb, sHb)
When iHb ≦ H <iHm,
(X1, y1) = (iHb, sHb)
(X2, y2) = (iHm, sHm)
When iHm ≦ H,
(X1, y1) = (iHm, sHm)
(X2, y2) = (iHr + 360, sHr + 360)
Next, conversion in the S value and the V value will be described.

S値及びV値は、H値によって分割された領域ごとに値が変換される。例えば、R領域について、
S ≦ iSrのときは、
S’=S×(sSr÷iSr) ・・・(式2)
S > iSrのときは、
S’=1+(S−1)×{(1−sSr)÷(1−iSr)} ・・・(式3)
V ≦ iVrのときは、
V’=V×(sVr÷iVr) ・・・(式4)
V > iVrのときは、
V’=1+(V−1)×{(1−sVr)÷(1−iVr)} ・・・(式5)
の式で求めることができる。また、その他の領域の計算についても同様に算出することができる。なお、以下においては、上記S値の変換式で定義される変換テーブルを彩度補正テーブルということがあり、また、上記V値の変換式で定義される変換テーブルを明度補正テーブルということがある。
The S value and the V value are converted for each area divided by the H value. For example, for the R region:
When S ≦ iSr,
S ′ = S × (sSr ÷ iSr) (Formula 2)
When S> iSr,
S ′ = 1 + (S−1) × {(1-sSr) ÷ (1-iSr)} (Formula 3)
When V ≦ iVr,
V ′ = V × (sVr ÷ iVr) (Formula 4)
When V> iVr,
V ′ = 1 + (V−1) × {(1−sVr) ÷ (1−iVr)} (Formula 5)
It can be calculated by the following formula. Further, other areas can be similarly calculated. In the following, the conversion table defined by the S value conversion formula may be referred to as a saturation correction table, and the conversion table defined by the V value conversion formula may be referred to as a brightness correction table. .

その後、変換されたHSV値を、画像印刷部40に適するフォーマット(例えば、RGB値)に変換する。なお、HSV値からRGB値への変換は、前述した公知の変換式に従い行うことができる。   Thereafter, the converted HSV value is converted into a format suitable for the image printing unit 40 (for example, RGB value). The conversion from the HSV value to the RGB value can be performed according to the above-described known conversion formula.

このように、H値に基づいて分割された領域ごとに、第2特徴量を第1特徴量に近づけるように元画像に対する補正処理を行うことによって、元画像の色合いをお手本画像の色合いに変換することができる。   In this way, the hue of the original image is converted to the hue of the model image by performing correction processing on the original image so that the second feature amount approaches the first feature amount for each region divided based on the H value. can do.

[1−3−5.レイアウト位置の決定処理]
次に、前述した色変換処理(図4)におけるS116で行われるレイアウト位置の決定処理について、2つの方法(A),(B)を例に挙げて説明する。
[1-3-5. Layout position determination process]
Next, the layout position determination process performed in S116 in the above-described color conversion process (FIG. 4) will be described by taking two methods (A) and (B) as examples.

なお、ここでは、具体例として、3つのお手本画像A,B,Cが入力されたものとし、元画像及び各お手本画像A,B,Cにおける各領域が占める割合は以下の値であるものとする。
<元画像>
・R領域が元画像に占める割合:iRateR=40%、
・G領域が元画像に占める割合:iRateG=15%
・B領域が元画像に占める割合:iRateB=20%
・C領域が元画像に占める割合:iRateC=10%
・M領域が元画像に占める割合:iRateM=8%
・Y領域が元画像に占める割合:iRateY=7%
<お手本画像A>
・R領域がお手本画像Aに占める割合:sRateR_A=25%
・G領域がお手本画像Aに占める割合:sRateG_A=15%
・B領域がお手本画像Aに占める割合:sRateB_A=30%
・C領域がお手本画像Aに占める割合:sRateC_A=10%
・M領域がお手本画像Aに占める割合:sRateM_A=8%
・Y領域がお手本画像Aに占める割合:sRateY_A=12%
<お手本画像B>
・R領域がお手本画像Bに占める割合:sRateR_B=30%
・G領域がお手本画像Bに占める割合:sRateG_B=12%
・B領域がお手本画像Bに占める割合:sRateB_B=8%
・C領域がお手本画像Bに占める割合:sRateC_B=15%
・M領域がお手本画像Bに占める割合:sRateM_B=10%
・Y領域がお手本画像Bに占める割合:sRateY_B=25%
<お手本画像C>
・R領域がお手本画像Cに占める割合:sRateR_C=8%
・G領域がお手本画像Cに占める割合:sRateG_C=10%
・B領域がお手本画像Cに占める割合:sRateB_C=12%
・C領域がお手本画像Cに占める割合:sRateC_C=25%
・M領域がお手本画像Cに占める割合:sRateM_C=30%
・Y領域がお手本画像Cに占める割合:sRateY_C=15%
(A)各色の存在割合を比較してソートする方法
(A−1)まず、元画像における各領域の割合値を大きい順にソートし、割合の大きいものから番号付けする。この例では次のように番号付けされる。
Here, as a specific example, it is assumed that three model images A, B, and C are input, and the ratio of each area in the original image and each model image A, B, and C is the following value: To do.
<Original image>
The ratio of the R region to the original image: iRateR = 40%
-Ratio of the G area in the original image: iRateG = 15%
-Ratio of B area to original image: iRateB = 20%
-Ratio of the C area to the original image: iRateC = 10%
-Ratio of the M area in the original image: iRateM = 8%
-Ratio of the Y area in the original image: iRateY = 7%
<Example image A>
The ratio of the R region to the sample image A: sRateR_A = 25%
-Ratio of the G area in the model image A: sRateG_A = 15%
-Ratio of the B area to the model image A: sRateB_A = 30%
-Ratio of the C area to the model image A: sRateC_A = 10%
The ratio of the M area to the sample image A: sRateM_A = 8%
The ratio of the Y area to the model image A: sRateY_A = 12%
<Example image B>
The ratio of the R area to the model image B: sRateR_B = 30%
The ratio of the G area to the model image B: sRateG_B = 12%
-Ratio of the B area to the model image B: sRateB_B = 8%
The ratio of the C area to the model image B: sRateC_B = 15%
The ratio of the M area to the model image B: sRateM_B = 10%
The ratio of the Y area to the model image B: sRateY_B = 25%
<Example image C>
The ratio of the R region to the model image C: sRateR_C = 8%
The ratio of the G area to the model image C: sRateG_C = 10%
-Ratio of the B area to the model image C: sRateB_C = 12%
The ratio of the C area to the model image C: sRateC_C = 25%
The ratio of the M area to the model image C: sRateM_C = 30%
The ratio of the Y area to the model image C: sRateY_C = 15%
(A) Method of comparing and sorting the existence ratios of the respective colors (A-1) First, the ratio values of the respective areas in the original image are sorted in descending order, and numbers are assigned in descending order of ratio. In this example, they are numbered as follows:

[1]iRateR=40%
[2]iRateB=20%
[3]iRateG=15%
[4]iRateC=10%
[5]iRateM=8%
[6]iRateY=7%
(A−2)次に、各お手本画像A,B,Cにおける各領域の割合値を、(A−1)で特定した順番に従って番号付けする。
<お手本画像A>
[1]sRateR_A=25%
[2]sRateB_A=30%
[3]sRateG_A=15%
[4]sRateC_A=10%
[5]sRateM_A=8%
[6]sRateY_A=12%
<お手本画像B>
[1]sRateR_B=30%
[2]sRateB_B=8%
[3]sRateG_B=12%
[4]sRateC_B=15%
[5]sRateM_B=10%
[6]sRateY_B=25%
<お手本画像C>
[1]sRateR_C=8%
[2]sRateB_C=12%
[3]sRateG_C=10%
[4]sRateC_C=25%
[5]sRateM_C=30%
[6]sRateY_C=15%
(A−3)次に、元画像における各領域の割合値(iRate)と、各お手本画像A,B,Cにおける各領域の割合値(sRate)とを比較して、お手本画像A,B,Cを元画像に近いものから順にソートする。具体的には、各お手本画像A,B,Cにおける番号の最も若い領域の割合値を比較して、元画像の割合値に近い順にソートする。なお、割合値が同じ場合には、次に番号の若い領域の割合値を比較する。この例では、R領域が元画像に占める割合iRateR(40%)に近い順であるため
[1]お手本画像B:sRateR_B(30%)
[2]お手本画像A:sRateR_A(25%)
[3]お手本画像C:sRateR_C(8%)
という順にソートされる。
[1] iRateR = 40%
[2] iRateB = 20%
[3] iRateG = 15%
[4] iRateC = 10%
[5] iRateM = 8%
[6] iRateY = 7%
(A-2) Next, the ratio value of each area in each model image A, B, C is numbered according to the order specified in (A-1).
<Example image A>
[1] sRateR_A = 25%
[2] sRateB_A = 30%
[3] sRateG_A = 15%
[4] sRateC_A = 10%
[5] sRateM_A = 8%
[6] sRateY_A = 12%
<Example image B>
[1] sRateR_B = 30%
[2] sRateB_B = 8%
[3] sRateG_B = 12%
[4] sRateC_B = 15%
[5] sRateM_B = 10%
[6] sRateY_B = 25%
<Example image C>
[1] sRateR_C = 8%
[2] sRateB_C = 12%
[3] sRateG_C = 10%
[4] sRateC_C = 25%
[5] sRateM_C = 30%
[6] sRateY_C = 15%
(A-3) Next, the ratio value (iRate) of each area in the original image and the ratio value (sRate) of each area in each model image A, B, C are compared, and the model images A, B, Sort C in order from the closest to the original image. Specifically, the ratio values of the smallest numbered areas in each of the model images A, B, and C are compared and sorted in order from the ratio of the original image to the ratio value. If the ratio values are the same, the ratio values of the next younger areas are compared. In this example, the R region is in the order close to the ratio iRateR (40%) in the original image. [1] Model image B: sRateR_B (30%)
[2] Model image A: sRateR_A (25%)
[3] Model image C: sRateR_C (8%)
Sort in the order.

(B)お手本画像と元画像のRGB値が近いものから順にソートする方法
(B−1)まず、元画像及び各お手本画像における各領域の代表値をHSV→RGB変換する。
(B) Method of Sorting the Model Image and the Original Image in the Same Order from the Nearest RGB Value (B-1) First, the representative value of each area in the original image and each model image is converted from HSV to RGB.

(B−2)次に、元画像における各領域の割合値を大きい順にソートする。
(B−3)次に、(B−2)で一番割合値の大きかった領域について、お手本画像A,B,Cを元画像のRGB値に近いものから順にソートする。
(B-2) Next, the ratio value of each area in the original image is sorted in descending order.
(B-3) Next, in the region having the largest ratio value in (B-2), the model images A, B, and C are sorted in order from the one closest to the RGB value of the original image.

なお、ここでは2つの方法(A),(B)を例示したが、これ以外にも様々な方法でレイアウト位置を決定することができることは言うまでもない。
[1−4.効果]
以上説明したように、本実施形態の複合機10は、色変換の対象とする元画像をメモリカードから入力し(S101)、入力した元画像の特徴を表す第2特徴量を特定する(S103,S104)。また、複数種類のお手本画像を画像読取部20から入力し(S106〜S109)、各お手本画像の特徴を表す第1特徴量を特定する(S111,S112)。さらに、第2特徴量を第1特徴量に近づけるように元画像に対する色変換処理を行った場合の色変換処理結果を表す補正イメージ画像を、各お手本画像の第1特徴量について生成する(S114)。こうして生成した複数の補正イメージ画像を、各補正イメージ画像の生成に用いたお手本画像とそれぞれ対応付けて配置したインデックス形式で印刷する(S116〜S118)。
Although two methods (A) and (B) are illustrated here, it goes without saying that the layout position can be determined by various methods other than this.
[1-4. effect]
As described above, the multifunction machine 10 according to the present embodiment inputs an original image to be subjected to color conversion from the memory card (S101), and specifies the second feature amount representing the feature of the input original image (S103). , S104). Also, a plurality of types of model images are input from the image reading unit 20 (S106 to S109), and first feature amounts representing the characteristics of each model image are specified (S111, S112). Further, a corrected image image representing a color conversion process result when the color conversion process is performed on the original image so that the second feature value is close to the first feature value is generated for the first feature value of each model image (S114). ). The plurality of corrected image images generated in this way are printed in an index format arranged in association with the model image used for generating each corrected image image (S116 to S118).

このような複合機10によれば、ユーザは、複数種類のお手本画像を用意して、お手本画像に対する補正イメージ画像を一覧印刷させることで、色変換処理の結果を事前に確認することができ、所望の補正結果が得られるお手本画像を効率よく選定することができる。このため、ユーザの意図を正確に反映した色変換処理を行うことができる。   According to such a multifunction machine 10, the user can prepare a plurality of types of model images and print a list of correction image images for the model images, so that the result of the color conversion process can be confirmed in advance. A model image that provides a desired correction result can be efficiently selected. Therefore, color conversion processing that accurately reflects the user's intention can be performed.

また、この複合機10は、入力した元画像のサムネイル画像を生成し(S102)、生成したサムネイル画像に対して色変換処理を行うことにより補正イメージ画像を生成する(S114)。このため、元画像に対して直接色変換処理を行った結果に基づき補正イメージ画像を生成する場合に比べ、補正イメージ画像を生成する処理を簡素化することができる。   The multifunction device 10 generates a thumbnail image of the input original image (S102), and performs a color conversion process on the generated thumbnail image to generate a corrected image image (S114). For this reason, compared with the case where a correction image image is generated based on the result of performing direct color conversion processing on the original image, the process of generating the correction image image can be simplified.

さらに、この複合機10は、ユーザにより補正イメージ画像のうちの1つが選択されると(S119)、選択された補正イメージ画像の生成に用いた第1特徴量に近づけるように元画像に対する色変換処理を行い(S120,S121)、色変換処理後の元画像を印刷する(S122)。このため、ユーザは、補正イメージ画像の中から1つを選択することで、お手本画像や元画像を再度読み取らせることなく、その補正イメージ画像の表す色変換処理が行われた元画像を印刷することができる。   Further, when one of the corrected image images is selected by the user (S119), the multifunction machine 10 performs color conversion on the original image so as to be close to the first feature value used for generating the selected corrected image image. Processing is performed (S120, S121), and the original image after the color conversion processing is printed (S122). Therefore, the user selects one of the corrected image images, and prints the original image that has been subjected to the color conversion processing represented by the corrected image image without causing the model image or the original image to be read again. be able to.

また、この複合機10では、お手本画像及び補正イメージ画像を、お手本画像の特徴が元画像の特徴に類似するものから順に配置して印刷するようにしているため(S116〜S118)、複数の補正イメージ画像を視覚的に比較しやすくすることができる。   In the multifunction machine 10, the model image and the corrected image are arranged and printed in order from the model image whose features are similar to those of the original image (S116 to S118). Image images can be easily compared visually.

一方、この複合機10では、原稿載置面を複数に分割した各読取領域で読み取られる画像を独立したお手本画像として入力するようにしているため、ユーザは、複数のお手本画像を容易に読み取らせることが可能となり、作業時間を短縮することができる。   On the other hand, in the multi-function device 10, an image read in each reading area obtained by dividing the document placement surface into a plurality of parts is input as an independent model image, so that the user can easily read a plurality of model images. And the working time can be shortened.

加えて、読取領域で読み取られた画像の平均輝度値がしきい値ThreV以上の場合には、その読取領域には画像が存在しないと判定するようにしているため、画像が存在しない部分をお手本画像として入力してしまうことを防ぐことができる。   In addition, if the average luminance value of the image read in the reading area is greater than or equal to the threshold value ThreV, it is determined that no image exists in the reading area. Inputting as an image can be prevented.

[1−5.特許請求の範囲との対応]
なお、第1実施形態の複合機10では、色変換処理(図4)におけるS101の処理を実行するCPU71が、第2画像入力手段に相当し、S102の処理を実行するCPU71が、加工画像生成手段に相当し、S103,S104の処理を実行するCPU71が、第2特徴量特定手段に相当する。また、S106〜S109の処理を実行するCPU71が、第1画像入力手段に相当し、S111,S112の処理を実行するCPU71が、第1特徴量特定手段に相当する。また、S114の処理を実行するCPU71が、イメージ画像生成手段に相当し、S116〜S118の処理を実行するCPU71が、イメージ画像出力手段に相当する。また、S119の処理を実行するCPU71が、選択手段に相当し、S120,S121の処理を実行するCPU71が、画像補正手段に相当し、S122の処理を実行するCPU71が、印刷制御手段に相当する。
[1-5. Correspondence with Claims]
In the MFP 10 of the first embodiment, the CPU 71 that executes the process of S101 in the color conversion process (FIG. 4) corresponds to the second image input unit, and the CPU 71 that executes the process of S102 generates the processed image. The CPU 71 that corresponds to the means and executes the processes of S103 and S104 corresponds to the second feature amount specifying means. The CPU 71 that executes the processes of S106 to S109 corresponds to a first image input unit, and the CPU 71 that executes the processes of S111 and S112 corresponds to a first feature amount specifying unit. Further, the CPU 71 that executes the process of S114 corresponds to an image generation unit, and the CPU 71 that executes the processes of S116 to S118 corresponds to an image output unit. The CPU 71 that executes the process of S119 corresponds to a selection unit, the CPU 71 that executes the processes of S120 and S121 corresponds to an image correction unit, and the CPU 71 that executes the process of S122 corresponds to a print control unit. .

[2.第2実施形態]
次に、第2実施形態の複合機10について説明する。
第2実施形態の複合機10は、前述した第1実施形態の色変換処理(図4)に代えて、図10のフローチャートに示す色変換処理を行う点が第1実施形態の複合機10と異なる。その他、共通する内容については説明を省略する。
[2. Second Embodiment]
Next, the multifunction machine 10 of the second embodiment will be described.
The MFP 10 of the second embodiment is different from the MFP 10 of the first embodiment in that the color conversion process shown in the flowchart of FIG. 10 is performed instead of the color conversion process (FIG. 4) of the first embodiment described above. Different. Description of other common contents will be omitted.

図10の色変換処理は、図4の色変換処理と対比すると、次の(1),(2)の点が異なる。
(1)図4の色変換処理では、元画像のサムネイル画像に対して色変換処理を行うことにより補正イメージ画像を生成するのに対し、図10の色変換処理では、元画像に直接色変換処理を行って補正画像を実際に生成し、その補正画像から補正イメージ画像を生成する。つまり、元画像自体に対し、各お手本画像に基づく色変換処理を実際に行うことにより、各お手本画像についての補正画像を生成する。このため、インデックス印刷した画像から画像番号が選択された際には、画像補正を再度行うことなく、既に生成した補正画像をそのまま印刷する。
The color conversion process of FIG. 10 is different from the color conversion process of FIG. 4 in the following points (1) and (2).
(1) In the color conversion process of FIG. 4, a corrected image is generated by performing a color conversion process on the thumbnail image of the original image, whereas in the color conversion process of FIG. 10, color conversion is performed directly on the original image. Processing is actually performed to generate a corrected image, and a corrected image is generated from the corrected image. That is, a correction image for each model image is generated by actually performing color conversion processing based on each model image on the original image itself. For this reason, when an image number is selected from the index printed image, the already generated corrected image is printed as it is without performing image correction again.

(2)図4の色変換処理では、お手本画像の第1特徴量に基づきレイアウト位置を決定するのに対し、図10の色変換処理では、画像読取部20の原稿載置面におけるどの読取領域でお手本画像が読み取られたかに応じてレイアウト位置を決定する。   (2) In the color conversion process of FIG. 4, the layout position is determined based on the first feature amount of the model image, whereas in the color conversion process of FIG. 10, which reading area on the document placement surface of the image reading unit 20 The layout position is determined according to whether the model image has been read.

具体的には、図10の色変換処理では、図4の色変換処理におけるS102,S105,S113,S121の処理の代わりに、S411,S412の処理を行う。また、S114,S116,S120の処理に代えて、S413,S415,S419の処理を行う。一方、S101,S103,S104,S106〜S112,S115,S117〜S119,S122の各処理内容は、S401〜S410,S414,S416〜S418,S420の各処理内容と共通している。そこで、この相違点に係る処理を中心に説明し、共通する部分については説明を省略する。   Specifically, in the color conversion process of FIG. 10, the processes of S411 and S412 are performed instead of the processes of S102, S105, S113, and S121 in the color conversion process of FIG. Moreover, it replaces with the process of S114, S116, and S120, and performs the process of S413, S415, and S419. On the other hand, the processing contents of S101, S103, S104, S106 to S112, S115, S117 to S119, and S122 are the same as the processing contents of S401 to S410, S414, S416 to S418, and S420. Therefore, the processing related to this difference will be mainly described, and description of common portions will be omitted.

S411では、S410で特定した第1特徴量(処理対象のお手本画像の第1特徴量)及びS403で特定した第2特徴量に基づいて、S401で読み込んだ元画像を補正する。なお、具体的な補正方法については前述したとおりである。   In step S411, the original image read in step S401 is corrected based on the first feature amount specified in step S410 (the first feature amount of the model image to be processed) and the second feature amount specified in step S403. The specific correction method is as described above.

続いて、S412では、S411で補正された補正後の元画像(補正画像)を、処理対象のお手本画像の識別情報と対応付けて、RAM73における記憶維持領域に記憶させる。ここで、既に別のお手本画像についての補正画像が記憶維持領域に記憶されている場合には、その補正画像の記憶状態を維持しつつ、新たに追加する形で記憶させる。したがって、S408〜S413の処理が繰り返されることにより、複数のお手本画像についての複数の補正画像がRAM73に記憶されることになる。なお、記憶手段はRAM73に限定されるものではなく、例えば複合機10がハードディスクを備えている場合にはハードディスクに記憶させてもよい。   Subsequently, in S412, the corrected original image (corrected image) corrected in S411 is stored in a storage maintenance area in the RAM 73 in association with identification information of the model image to be processed. Here, when a corrected image for another model image is already stored in the storage maintenance area, it is stored in a newly added form while maintaining the storage state of the corrected image. Therefore, by repeating the processing of S408 to S413, a plurality of corrected images for a plurality of model images are stored in the RAM 73. The storage means is not limited to the RAM 73. For example, when the multifunction machine 10 includes a hard disk, it may be stored in the hard disk.

続いて、S413では、S411で補正された補正後の元画像(補正画像)のサムネイル画像(補正イメージ画像)を生成する。すなわち、補正画像に対し、あらかじめ設定されているサムネイル画像のサイズとなるようにサイズ変更処理(縮小処理)を行う。なお、補正画像(元画像)はサムネイル画像よりも大きいことが通常であるためサイズ変更処理として縮小処理を行うと説明しているが、補正画像がサムネイル画像のサイズよりも小さい場合には、サイズ変更処理として拡大処理を行うことになる。また、サイズ変更処理としては、例えば、ニアレストネイバー法、バイリニア法、バイキュービック法、縮小に限定すれば平均画素法などを用いることができる。   Subsequently, in S413, a thumbnail image (corrected image image) of the corrected original image (corrected image) corrected in S411 is generated. That is, a size change process (reduction process) is performed on the corrected image so as to have a preset thumbnail image size. Note that since the correction image (original image) is usually larger than the thumbnail image, the reduction process is described as the size change process. However, if the correction image is smaller than the thumbnail image size, The enlargement process is performed as the change process. As the size changing process, for example, a nearest neighbor method, a bilinear method, a bicubic method, and an average pixel method can be used if limited to reduction.

また、S415では、各お手本画像の読取位置に基づき、インデックス印刷を行う際のサムネイル画像の配置(レイアウト位置)を決定する。具体的には、原稿載置面を複数に分割した各読取領域とサムネイル画像の配置とをあらかじめ対応付けておけばよく、例えば図5に示す例では、読取領域がImage1,Image2,Image3,Image4の順にサムネイル画像を配置するようにする。   In step S415, the arrangement (layout position) of thumbnail images for index printing is determined based on the reading position of each model image. Specifically, each reading area obtained by dividing the document placement surface into a plurality of reading areas and the arrangement of thumbnail images may be associated in advance. For example, in the example illustrated in FIG. 5, the reading areas are Image1, Image2, Image3, Image4. The thumbnail images are arranged in the order of.

また、S419では、S418で入力した画像番号のお手本画像に基づき補正された補正画像(そのお手本画像の識別情報と対応付けて記憶されている補正画像)をRAM73における記憶維持領域から読み出し、S420で画像印刷部40に印刷させた後、本色変換処理を終了する。   In S419, a corrected image corrected based on the model image having the image number input in S418 (a corrected image stored in association with the identification information of the model image) is read from the storage maintenance area in the RAM 73, and in S420. After printing on the image printing unit 40, the color conversion process ends.

以上のように、第2実施形態の複合機10では、元画像に対して実際に色変換処理を行った結果に基づき補正イメージ画像を生成するようにしているため(S411,S413)、色変換処理結果を正確に表す補正イメージ画像を生成することができる。また、ユーザにより補正イメージ画像のうちの1つが選択された際に(S418)、再度画像補正処理を行うことなく補正画像を印刷することができる(S419,S420)。   As described above, in the MFP 10 of the second embodiment, the corrected image is generated based on the result of actually performing the color conversion process on the original image (S411, S413). A corrected image that accurately represents the processing result can be generated. When one of the corrected image images is selected by the user (S418), the corrected image can be printed without performing image correction processing again (S419, S420).

また、この複合機10では、各お手本画像の読取位置に基づき、インデックス印刷を行う際のサムネイル画像の配置(レイアウト位置)を決定するようにしているため、ユーザの意思でサムネイル画像の配置を決定することができる。   In the MFP 10, the arrangement of thumbnail images (layout position) for index printing is determined based on the reading position of each model image. Therefore, the arrangement of thumbnail images is determined by the user's intention. can do.

なお、第2実施形態の複合機10では、色変換処理(図10)におけるS401の処理を実行するCPU71が、第2画像入力手段に相当し、S402,S403の処理を実行するCPU71が、第2特徴量特定手段に相当する。また、S404〜S407の処理を実行するCPU71が、第1画像入力手段に相当し、S409,S410の処理を実行するCPU71が、第1特徴量特定手段に相当する。また、S411の処理を実行するCPU71が、イメージ画像生成手段に相当し、S415〜S417の処理を実行するCPU71が、イメージ画像出力手段に相当する。また、S418の処理を実行するCPU71が、選択手段に相当し、S420の処理を実行するCPU71が、印刷制御手段に相当する。   In the multifunction machine 10 of the second embodiment, the CPU 71 that executes the process of S401 in the color conversion process (FIG. 10) corresponds to the second image input unit, and the CPU 71 that executes the processes of S402 and S403 is the first. This corresponds to two feature amount specifying means. The CPU 71 that executes the processes of S404 to S407 corresponds to a first image input unit, and the CPU 71 that executes the processes of S409 and S410 corresponds to a first feature amount specifying unit. The CPU 71 that executes the process of S411 corresponds to an image image generation unit, and the CPU 71 that executes the processes of S415 to S417 corresponds to an image image output unit. Further, the CPU 71 that executes the process of S418 corresponds to a selection unit, and the CPU 71 that executes the process of S420 corresponds to a print control unit.

[3.他の形態]
以上、本発明の実施形態について説明したが、本発明は、種々の形態をとり得ることは言うまでもない。
[3. Other forms]
As mentioned above, although embodiment of this invention was described, it cannot be overemphasized that this invention can take a various form.

(1)上記実施形態では、複合機10が原稿載置面を複数に分割した各読取領域で読み取られる画像を独立したお手本画像として入力する例について説明したが、これに限定されるものではない。例えば、原稿載置面全域を1つの全体画像として読み取り、その全体画像の内容を解析して画像を抽出するようにしてもよい。このようにすれば、図11に示すように原稿載置面における不特定の位置に配置された複数の画像を独立した画像として抽出することができる。ここで、全体画像から複数の画像を抽出する方法としては、例えば次の(a),(b)ような方法が挙げられる。   (1) In the above embodiment, an example has been described in which the multifunction peripheral 10 inputs an image read in each reading area obtained by dividing the document placement surface into a plurality of independent sample images. However, the present invention is not limited to this. . For example, the entire document placement surface may be read as one whole image, and the contents of the whole image may be analyzed to extract the image. In this way, as shown in FIG. 11, a plurality of images arranged at unspecified positions on the document placement surface can be extracted as independent images. Here, examples of a method for extracting a plurality of images from the entire image include the following methods (a) and (b).

(a)原稿が存在しない部分の読取色(白色)に基づいて設定されたしきい値に基づき白色でないと判定される画素値が一定以上固まって存在する場所を1つの画像として認識する方法。   (A) A method of recognizing, as one image, a place where pixel values determined to be not white based on a threshold value set based on a reading color (white color) of a portion where no document exists exist as a certain image.

(b)原稿載置面において設定された特定範囲にある画像を1つの画像として認識し、その特定範囲内に上記(a)と同様のしきい値に基づき白色でないと判定される画素値が一定以上存在する場合に画像が存在すると判定する方法。   (B) An image in a specific range set on the document placement surface is recognized as one image, and a pixel value determined to be non-white based on a threshold value similar to (a) in the specific range. A method for determining that an image is present when a certain amount or more exists.

また、お手本画像は1枚の原稿につき1つである必要はなく、複数の画像が印刷された原稿から各画像をそれぞれ独立したお手本画像として抽出するようにしてもよい。
(2)上記実施形態では、複数のお手本画像を一度に読み取る例について説明したが、これに限定されるものではなく、お手本画像の読取操作を繰り返し行うことにより、お手本画像を1つずつ読み取るようにしてもよい。このようにすれば、1つの画像を複数の画像と誤認識したり、逆に複数の画像を1つの画像と誤認識したりすることを確実に防ぐことができる。
Further, one model image is not necessarily required for each document, and each image may be extracted as an independent model image from a document on which a plurality of images are printed.
(2) In the above-described embodiment, an example in which a plurality of model images are read at a time has been described. However, the present invention is not limited to this, and the model images may be read one by one by repeatedly performing a model image reading operation. It may be. In this way, it is possible to reliably prevent one image from being misrecognized as a plurality of images, or conversely, misrecognizing a plurality of images as one image.

(3)上記実施形態では、複合機10がお手本画像を画像読取部20で読み取る例について説明したが、これに限定されるものではない。例えば、メモリカードから読み込んだ画像や、通信部60を介して外部から受信した画像をお手本画像としてもよい。   (3) In the above embodiment, the example in which the multifunction machine 10 reads the model image by the image reading unit 20 has been described, but the present invention is not limited to this. For example, an image read from a memory card or an image received from the outside via the communication unit 60 may be used as a model image.

(4)上記実施形態では、色変換の対象とする画像(元画像)をメモリカードから入力する例について説明したが、これに限定されるものではない。例えば、画像読取部20で読み取られた画像や、通信部60を介して外部から受信した画像を色変換の対象としてもよい。   (4) In the above-described embodiment, an example in which an image (original image) to be subjected to color conversion is input from a memory card has been described. However, the present invention is not limited to this. For example, an image read by the image reading unit 20 or an image received from the outside via the communication unit 60 may be the target of color conversion.

(5)上記実施形態では、色変換処理において、第1特徴量及び第2特徴量を特定するための処理を行う前に、お手本画像及び元画像の各構成画素をHSVパラメータに変換する処理を行うようにしているが、これに限定されるものではない。例えば、HSVパラメータに代えて、L***パラメータやRGBパラメータ等の他のパラメータに変換してもよい。 (5) In the above embodiment, in the color conversion process, before performing the process for specifying the first feature value and the second feature value, the process of converting the constituent pixels of the model image and the original image into HSV parameters. However, the present invention is not limited to this. For example, instead of the HSV parameter, it may be converted into another parameter such as an L * c * h * parameter or an RGB parameter.

(6)上記実施形態では、色変換処理において、第2特徴量を特定した後に第1特徴量を特定しているが、これに限定されるものではなく、第1特徴量を特定した後に第2特徴量を特定してもよい。   (6) In the above embodiment, in the color conversion process, the first feature value is specified after specifying the second feature value. However, the present invention is not limited to this, and the first feature value is specified after specifying the first feature value. Two feature quantities may be specified.

(7)上記実施形態では、第1特徴量を特定するアルゴリズムと第2特徴量を特定するアルゴリズムとを同一のものとして説明したが、これに限定されるものではなく、異なるアルゴリズムによって特定してもよい。   (7) In the above embodiment, the algorithm for specifying the first feature quantity and the algorithm for specifying the second feature quantity have been described as being the same. However, the present invention is not limited to this. Also good.

(8)上記実施形態では、補正イメージ画像を印刷するようにしているが、これに限定されるものではなく、例えば、印刷に代えて、複合機10の表示部32や複合機10と通信可能な状態にあるパーソナルコンピュータのディスプレイ等に表示するようにしてもよい。ただし、上記実施形態のように補正イメージ画像を印刷する場合には、補正イメージ画像を表示部32等に表示する場合に比べ、補正画像を実際に印刷した際の色合い等を正確に判断できるという面で効果的である。   (8) In the above-described embodiment, the corrected image is printed. However, the present invention is not limited to this. For example, instead of printing, communication with the display unit 32 of the multifunction machine 10 or the multifunction machine 10 is possible. You may make it display on the display etc. of the personal computer in a various state. However, when the corrected image is printed as in the above-described embodiment, the hue or the like when the corrected image is actually printed can be determined more accurately than when the corrected image is displayed on the display unit 32 or the like. It is effective in terms.

(9)上記実施形態では、RAM73における記憶維持領域に記憶させた情報が、色変換処理が終了されるまで保持される構成を例に挙げて説明したが、これに限定されるものではなく、例えば、ユーザによる消去操作が行われるまでは半永久的に記憶しておくようにしてもよい。   (9) In the above-described embodiment, the information stored in the storage maintenance area in the RAM 73 has been described as an example of the configuration in which the information is stored until the color conversion process is completed. However, the present invention is not limited to this. For example, you may make it memorize | store semipermanently until erase operation by a user is performed.

(10)上記実施形態では、画像番号として自然数を例示したが、これに限定されるものではなく、文字や記号など、複数の画像の中から1つの画像を特定可能なものであればよい。また、画像番号を印刷せず、画像の配置(例えば上から何番目)などに基づき所望の画像を特定させることも可能である。   (10) In the above embodiment, the natural number is exemplified as the image number. However, the present invention is not limited to this, and it is only necessary that one image can be specified from a plurality of images such as characters and symbols. It is also possible to specify a desired image based on the arrangement of images (for example, what number from the top) without printing the image number.

(11)上記実施形態では、画像補正処理として色変換処理を例示したが、これに限定されるものではなく、上記実施形態で例示した以外の画像補正処理を行うものであってもよい。   (11) In the above embodiment, the color conversion process is exemplified as the image correction process. However, the present invention is not limited to this, and an image correction process other than that exemplified in the above embodiment may be performed.

(12)上記実施形態では、色相に応じて分割した6つの領域すべてについて画像補正を行うようにしているが、これに限定されるものではなく、例えば、画像に占める割合の小さい領域については画像補正を行わない(又は補正量を減少させる)ようにしてもよい。具体的には、画像補正処理を行う前に、画像補正処理に用いる第1特徴量及び第2特徴量の値を条件に応じて再設定する代表値再設定処理を行う。   (12) In the above embodiment, image correction is performed for all six regions divided according to hue. However, the present invention is not limited to this. For example, for a region with a small proportion of the image, the image is corrected. The correction may not be performed (or the correction amount is decreased). Specifically, before performing the image correction process, a representative value resetting process is performed in which the values of the first feature value and the second feature value used in the image correction process are reset according to conditions.

ここで、代表値再設定処理の一例について、図12のフローチャートを用いて説明する。
CPU71は、代表値再設定処理を開始すると、まず、S501で、元画像において色相ごとに分割した6つの領域のうちの1つの領域について、色変換処理の対象とするか否かを判定する。ここで、その領域を色変換処理の対象とするか否かは、その領域が後述の変換対象条件を満たすか否かによって判定する。そして、色変換の対象とすると判定した場合には(S501:YES)、S503へ移行する。一方、色変換の対象としないと判定した場合には(S501:NO)、S502へ移行し、その領域に係る第1特徴量及び第2特徴量の代表値を再設定した後、S503へ移行する。なお、代表値の再設定方法については後述する。
Here, an example of the representative value resetting process will be described with reference to the flowchart of FIG.
When the CPU 71 starts the representative value resetting process, first, in S501, the CPU 71 determines whether one of the six areas divided for each hue in the original image is to be subjected to the color conversion process. Here, whether or not the area is to be subjected to color conversion processing is determined depending on whether or not the area satisfies a conversion target condition described later. If it is determined that the color conversion is to be performed (S501: YES), the process proceeds to S503. On the other hand, if it is determined not to be subject to color conversion (S501: NO), the process proceeds to S502, the representative values of the first feature value and the second feature value related to the region are reset, and the process proceeds to S503. To do. A method for resetting the representative value will be described later.

S503では、6つの領域すべてについて、色変換の対象とするか否かの判定処理を行ったか否かを判定する。そして、色変換の対象とするか否かの判定処理を行っていない領域が残っていると判定した場合には(S503:NO)、S501に戻り処理を繰り返す。一方、すべての領域について判定処理を行ったと判定した場合には(S503:YES)、本代表値再設定処理を終了する。   In S <b> 503, it is determined whether or not the determination process for determining whether or not all six areas are to be subjected to color conversion has been performed. If it is determined that there remains an area for which determination processing for determining whether or not to perform color conversion remains (S503: NO), the processing returns to S501 and is repeated. On the other hand, if it is determined that the determination process has been performed for all regions (S503: YES), the representative value resetting process is terminated.

ここで、S501の変換対象条件について説明する。
(A)しきい値Threを用いる方法
S501では、第1特徴量及び第2特徴量における対象領域についての割合値(お手本画像中又は元画像中に占める割合)がしきい値Thre以上である場合に、変換対象条件を満たす(色変換の対象とする)と判定する。そして、第1特徴量及び第2特徴量の少なくとも一方における対象領域についての割合値がしきい値Thre未満の場合には、S502で、その領域に係る第1特徴量及び第2特徴量の代表値を同じ値に変更し、変更後の代表値を用いて補正処理が行われるようにする。具体的には、代表値を次のように再設定する。
Here, the conversion target condition of S501 will be described.
(A) Method Using Threshold Thre In S501, the ratio value (the ratio occupied in the model image or the original image) for the target area in the first feature value and the second feature value is equal to or greater than the threshold value Thre. Then, it is determined that the conversion target condition is satisfied (the color conversion target). If the ratio value for the target region in at least one of the first feature amount and the second feature amount is less than the threshold value Thre, the representative of the first feature amount and the second feature amount related to the region is S502. The value is changed to the same value, and correction processing is performed using the changed representative value. Specifically, the representative value is reset as follows.

sRateR<Thre 又は iRateR<Thre のときは、
sHr=0,sSr=0.5,sVr=0.5,
iHr=0,iSr=0.5,iVr=0.5
sRateG<Thre 又は iRateG<Thre のときは、
sHg=120,sSg=0.5,sVg=0.5,
iHg=120,iSg=0.5,iVg=0.5
sRateB<Thre 又は iRateB<Thre のときは、
sHb=240,sSb=0.5,sVb=0.5,
iHb=240,iSb=0.5,iVb=0.5
sRateC<Thre 又は iRateC<Thre のときは、
sHc=180,sSc=0.5,sVc=0.5,
iHc=180,iSc=0.5,iVc=0.5
sRateM<Thre 又は iRateM<Thre のときは、
sHm=300,sSm=0.5,sVm=0.5,
iHm=300,iSm=0.5,iVm=0.5
sRateY<Thre 又は iRateY<Thre のときは、
sHy=60,sSy=0.5,sVy=0.5,
iHy=60,iSy=0.5,iVy=0.5
本実施形態では、S値及びV値については、そのとり得る値(0〜1)の中間値である0.5を採用し、H値においては、それぞれの領域の中間値を採用したが、これらはあくまでも一例に過ぎず、これらの数値に限定されるものではない。
When sRateR <Thre or iRateR <Thre,
sHr = 0, sSr = 0.5, sVr = 0.5,
iHr = 0, iSr = 0.5, iVr = 0.5
When sRateG <Thre or iRateG <Thre,
sHg = 120, sSg = 0.5, sVg = 0.5,
iHg = 120, iSg = 0.5, iVg = 0.5
When sRateB <Thre or iRateB <Thre,
sHb = 240, sSb = 0.5, sVb = 0.5,
iHb = 240, iSb = 0.5, iVb = 0.5
When sRateC <Thre or iRateC <Thre,
sHc = 180, sSc = 0.5, sVc = 0.5,
iHc = 180, iSc = 0.5, iVc = 0.5
When sRateM <Thre or iRateM <Thre,
sHm = 300, sSm = 0.5, sVm = 0.5,
iHm = 300, iSm = 0.5, iVm = 0.5
When sRateY <Thre or iRateY <Thre,
sHy = 60, sSy = 0.5, sVy = 0.5,
iHy = 60, iSy = 0.5, iVy = 0.5
In the present embodiment, for the S value and the V value, 0.5, which is an intermediate value of possible values (0 to 1), is adopted, and for the H value, the intermediate value of each region is adopted. These are merely examples, and are not limited to these numerical values.

このように代表値を変更することで、補正処理において、S値及びV値については、前述した変換式(式2)〜(式5)から明らかなように値が変換されない。すなわち、例えばR領域に関して、S ≦ iSrのときは、前述した(式2)のとおり、
S’=S×(sSr÷iSr)
の式で算出されるが、当該式において、sSr=0.5,iSr=0.5となるので、前述した式は、
S’=S×(0.5÷0.5)=S ・・・(式6)
となる。S>iSrのときも同様にS’=Sとなる。また、V値及び他の領域についても同様に変換されない。
By changing the representative value in this way, in the correction process, the values of the S value and the V value are not converted as is apparent from the conversion expressions (Expression 2) to (Expression 5) described above. That is, for example, with respect to the R region, when S ≦ iSr, as described above (Formula 2),
S ′ = S × (sSr ÷ iSr)
In this equation, sSr = 0.5 and iSr = 0.5, so the above-described equation is
S ′ = S × (0.5 ÷ 0.5) = S (Expression 6)
It becomes. Similarly, when S> iSr, S ′ = S. Similarly, the V value and other areas are not converted.

一方、H値については、図9においてプロットされる点が代表値に変更されるので、その領域における変換量を小さくすることができる。すなわち、前述した変換式(式1)を利用した場合であっても、代表値を変更することによって変換量が小さくなる。   On the other hand, for the H value, the point plotted in FIG. 9 is changed to the representative value, so that the conversion amount in that region can be reduced. That is, even when the above-described conversion formula (Formula 1) is used, the conversion amount is reduced by changing the representative value.

次に、しきい値Threの決定方法について説明する。この値は、例えば官能評価に基づいて決定することができる。官能評価では、約6%以上の面積を占めていれば、その領域は知覚されやすいことを確認した。したがって、しきい値Threとして、6%を採用することができる。ただし、しきい値Threは6%に限定されるものではない。   Next, a method for determining the threshold value Thre will be described. This value can be determined based on sensory evaluation, for example. In sensory evaluation, it was confirmed that if the area occupied about 6% or more, the area was easily perceived. Therefore, 6% can be adopted as the threshold value Thre. However, the threshold value Thre is not limited to 6%.

また、例えば、他の領域に対して相対的に面積が大きい領域を抽出するようにしきい値Threを決定してもよい。具体的には、分割される領域の数が6であれば、その逆数である1/6をしきい値Threとする。   For example, the threshold value Thre may be determined so as to extract a region having a relatively large area with respect to other regions. Specifically, if the number of regions to be divided is 6, the reciprocal 1/6 is set as the threshold value Thre.

ここで、分割される領域の数が6とは、色彩を表現する色域の1つであるRGB空間(頂点数8)から、無彩色である白と黒とを除いた残りの6つの頂点である。人が色彩を識別するには、色域を頂点数6に分類すれば十分であり、6より少なくすると、元画像がお手本画像のように変換されていないとユーザが感じる可能性が高くなる。逆に、6より細かく分割すれば、変換精度は高くなるが、人には識別できなくなる可能性が高くなる。また、分割数の増加に伴い計算量も増えるため、印刷結果が得られるまでの時間が長くなり、ユーザの不満も増加する可能性も高くなるので、分割される領域の数は6が好ましい。   Here, the number of divided areas is six. The remaining six vertices excluding white and black, which are achromatic colors, from the RGB space (number of vertices 8) which is one of the color gamuts expressing colors. It is. In order for a person to identify a color, it is sufficient to classify the color gamut into the number of vertices of 6, and if the number is less than 6, the user is more likely to feel that the original image is not converted like a model image. On the other hand, if the data is divided more finely than 6, the conversion accuracy is improved, but the possibility that the person cannot be identified increases. In addition, since the amount of calculation increases as the number of divisions increases, the time until a print result is obtained increases and the possibility of increasing user dissatisfaction increases. Therefore, the number of divided regions is preferably six.

なお、本実施形態では、すべての領域において同一のしきい値Threを用いているが、これに限定されるものではなく、領域ごとにしきい値Threを変更してもよい。
(B)最大領域の情報を用いる方法
上記(A)の方法では、しきい値Threを設定し、当該しきい値Threに基づいて代表値の変更、すなわち、色変換処理の停止、変換量の減少の制御を行った。ここでは、お手本画像の特定の色のみについて元画像に反映させるために、画像中の最大領域の情報を用いる方法について説明する。
In the present embodiment, the same threshold value Thre is used in all regions. However, the present invention is not limited to this, and the threshold value Thre may be changed for each region.
(B) Method Using Information on Maximum Region In the method (A) above, a threshold value Thre is set, and the representative value is changed based on the threshold value Thre, that is, the color conversion process is stopped, and the conversion amount is changed. Reduction control was performed. Here, a method of using information on the maximum area in the image in order to reflect only a specific color of the model image in the original image will be described.

この場合、S501では、第1特徴量及び第2特徴量のいずれにおいても最も割合値が大きい領域である場合に、変換対象条件を満たす(色変換の対象とする)と判定する。そして、変換対象条件を満たさない領域については、S502で、その領域に係る第1特徴量及び第2特徴量の代表値を次のように再設定する。ここで、第1特徴量の割合値のうち最も大きい割合値を、sMaxRateとする。また、第2特徴量の割合値のうち最も大きい割合値を、iMaxRateとする。   In this case, in S501, it is determined that the conversion target condition is satisfied (to be color conversion target) when the region has the largest ratio value in both the first feature amount and the second feature amount. And about the area | region which does not satisfy | fill the conditions for conversion, in S502, the typical value of the 1st feature-value and 2nd feature-value which concern on the area | region is reset as follows. Here, the largest ratio value among the ratio values of the first feature value is sMaxRate. Further, the largest ratio value among the ratio values of the second feature amount is assumed to be iMaxRate.

sRateR≠iMaxRate又はiRateR≠sMaxRateのとき、
sHr=0,sSr=0.5,sVr=0.5,
iHr=0,iSr=0.5,iVr=0.5
sRateG≠iMaxRate又はiRateG≠sMaxRateのとき、
sHg=120,sSg=0.5,sVg=0.5,
iHg=120,iSg=0.5,iVg=0.5
sRateB≠iMaxRate又はiRateB≠sMaxRateのとき、
sHb=240,sSb=0.5,sVb=0.5,
iHb=240,iSb=0.5,iVb=0.5
sRateC≠iMaxRate又はiRateC≠sMaxRateのとき、
sHc=120,sSc=0.5,sVc=0.5,
iHc=120,iSc=0.5,iVc=0.5
sRateM≠iMaxRate又はiRateM≠sMaxRateのとき、
sHm=300,sSm=0.5,sVm=0.5,
iHm=300,iSm=0.5,iVm=0.5
sRateY≠iMaxRate又はiRateY≠sMaxRateのとき、
sHy=60,sSy=0.5,sVy=0.5,
iHy=60,iSy=0.5,iVy=0.5
このように代表値を設定することで、第1特徴量及び第2特徴量のいずれにおいても最も割合値の大きい領域のみが変換対象となるから、変換対象とならなかった領域のS値及びV値については変換が行われず、また、H値については変換量を減少させることができる。
When sRateR ≠ iMaxRate or iRateR ≠ sMaxRate,
sHr = 0, sSr = 0.5, sVr = 0.5,
iHr = 0, iSr = 0.5, iVr = 0.5
When sRateG ≠ iMaxRate or iRateG ≠ sMaxRate,
sHg = 120, sSg = 0.5, sVg = 0.5,
iHg = 120, iSg = 0.5, iVg = 0.5
When sRateB ≠ iMaxRate or iRateB ≠ sMaxRate,
sHb = 240, sSb = 0.5, sVb = 0.5,
iHb = 240, iSb = 0.5, iVb = 0.5
When sRateC ≠ iMaxRate or iRateC ≠ sMaxRate,
sHc = 120, sSc = 0.5, sVc = 0.5,
iHc = 120, iSc = 0.5, iVc = 0.5
When sRateM ≠ iMaxRate or iRateM ≠ sMaxRate,
sHm = 300, sSm = 0.5, sVm = 0.5,
iHm = 300, iSm = 0.5, iVm = 0.5
When sRateY ≠ iMaxRate or iRateY ≠ sMaxRate,
sHy = 60, sSy = 0.5, sVy = 0.5,
iHy = 60, iSy = 0.5, iVy = 0.5
Since the representative value is set in this way, only the region having the largest ratio value in both the first feature value and the second feature value is to be converted, and therefore the S value and V of the region that has not been converted. No conversion is performed on the value, and the conversion amount can be reduced for the H value.

具体的には、例えばB領域のみを変換対象とした場合、図13に示すような色相補正テーブルが作成されることになる。この色相補正テーブルにおいては、色空間上B領域に隣接するC領域におけるH値の代表値(iHc=180,sHc=180)とB領域におけるH値の代表値(iHb,sHb)とが直線で結ばれ、また、色空間上B領域に隣接するM領域におけるH値の代表値(iHm=300,sHm=300)とB領域におけるH値の代表値(iHb,sHb)とが直線で結ばれることになる。   Specifically, for example, when only the B area is to be converted, a hue correction table as shown in FIG. 13 is created. In this hue correction table, the H value representative value (iHc = 180, sHc = 180) in the C region adjacent to the B region in the color space and the H value representative value (iHb, sHb) in the B region are linear. In addition, the representative value of the H value (iHm = 300, sHm = 300) in the M region adjacent to the B region in the color space and the representative value of the H value in the B region (iHb, sHb) are connected by a straight line. It will be.

このため、H値が180<H≦210のC領域、及びH値が270<H≦300のM領域についても変換されることになる。この変換量は、B領域に近い値ほど大きくなる。
このように、変換対象の領域を選択可能であり、また、変換対象ではない領域であっても、色空間上隣接するH値については一部変換されることになるから、変換対象の領域の変換対象ではない領域との間に擬似輪郭(階調とび)が生成されることを防ぐことができる。
Therefore, the C region where the H value is 180 <H ≦ 210 and the M region where the H value is 270 <H ≦ 300 are also converted. This conversion amount becomes larger as the value is closer to the B region.
In this way, the conversion target region can be selected, and even if the region is not the conversion target, the H value adjacent in the color space is partially converted. It is possible to prevent a pseudo contour (tone jump) from being generated between a region that is not a conversion target.

このような代表値再設定処理を行うことにより、分割されたそれぞれの領域に対し、領域の大きさに基づいて補正処理の一部を停止したり、変換量を小さくしたりすることができるため、ユーザは、お手本画像の一部の色合いのみを元画像の色合いに反映させるといったことが可能となる。   By performing such a representative value resetting process, it is possible to stop a part of the correction process or reduce the conversion amount for each divided area based on the size of the area. The user can reflect only a part of the hue of the model image in the hue of the original image.

(13)上記(12)では、変換対象としない領域のH値は、変換量を減少させることはできるものの、変換量をゼロとすることはできない。図9に示すように、変換対象としない領域の代表値との間で線形補間されるため、他の領域の代表値の影響を受けるからである。   (13) In the above (12), the H value of the region not to be converted can reduce the conversion amount, but cannot reduce the conversion amount to zero. This is because, as shown in FIG. 9, linear interpolation is performed between the representative values of the regions that are not to be converted, and therefore, it is affected by the representative values of other regions.

そこで、図14に示すような色相補正テーブルを採用することができる。図14は、B領域のみを変換対象とした場合の色相補正テーブルである。なお、この図においては、変換対象の領域の数を1つとしているが、複数の領域を補正対象とした場合にも同様に適用できる。   Therefore, a hue correction table as shown in FIG. 14 can be employed. FIG. 14 is a hue correction table in the case where only the B region is to be converted. In this figure, the number of areas to be converted is one, but the present invention can be similarly applied to cases where a plurality of areas are to be corrected.

図14においては、B領域以外のH値は、H’=Hであるから、色変換は行われない。B領域のH’値については、B領域中の最小値をHmin,B領域中の最大値をHmaxとすれば、以下の式で求めることができる。   In FIG. 14, since the H values other than the B region are H ′ = H, color conversion is not performed. The H ′ value in the B region can be obtained by the following equation, where the minimum value in the B region is Hmin and the maximum value in the B region is Hmax.

H<iHのときは、
H’=Hmin+(sHb−Hmin)×(H−Hmin)÷(iHb−Hmin)
H>iHのときは、
H’=sHb+(Hmax−sHb)×(H−iHb)÷(Hmax−iHb)
この式を用いることにより、変換対象の領域のみを変換することができる。
When H <iH,
H ′ = Hmin + (sHb−Hmin) × (H−Hmin) ÷ (iHb−Hmin)
When H> iH,
H ′ = sHb + (Hmax−sHb) × (H−iHb) ÷ (Hmax−iHb)
By using this equation, only the region to be converted can be converted.

このようにすれば、変換対象のH値のみを変換することができるから、色変換の効果を大きくすることができる。
(14)上記実施形態においては、S値及びV値に対し、領域ごとに補正カーブ(変換式)を独立して用いるため、擬似輪郭(階調とび)が生成されるおそれがある。すなわち、図15に示すように、領域ごとに、SとS’との関係を示すテーブルを有しており、隣接する領域におけるテーブルの性質を何ら考慮していない。
In this way, since only the H value to be converted can be converted, the effect of color conversion can be increased.
(14) In the above embodiment, since a correction curve (conversion formula) is independently used for each region with respect to the S value and the V value, a pseudo contour (tone jump) may be generated. That is, as shown in FIG. 15, each region has a table indicating the relationship between S and S ′, and no consideration is given to the nature of the table in the adjacent region.

これに対し、図16に示すように、各色領域における補正カーブを滑らかにすることで階調とびを防止できる。
ここで、具体的な処理について以下に説明する。なお、図17及び図18を参照しつつC領域の一部及びB領域の一部の色変換処理について説明を行うが、他の領域についても処理の内容は基本的には同じである。
On the other hand, as shown in FIG. 16, gradation skipping can be prevented by smoothing the correction curve in each color region.
Here, specific processing will be described below. The color conversion process for a part of the C area and a part of the B area will be described with reference to FIGS. 17 and 18, but the contents of the process are basically the same for the other areas.

補正されたS値(Sb’’)は、変換対象領域のH値(H)、変換対象とする領域のH値の中間値(Hbmid)、変換対象となる画素のH値の色相座標位置と、変換対象とする領域のH値の中間値の色相座標位置とを比較し、変換対象となる画素のH値の色相座標位置は近くに、かつ、変換対象とする領域のH値の中間値の色相座標位置からは遠くに隣接する領域のH値の代表値(Hcmid)、上記変換式(式2)に対応する変換式で変換された(すなわち、B領域の彩度補正テーブルを用いて算出された)変換対象領域のS値(Sb’)、上記変換式(式3)に対応する変換式で変換された(すなわち、C領域の彩度補正テーブルを用いて算出された)隣接する領域のS値(Sc’)を用いて、以下の式で求めることができる。   The corrected S value (Sb ″) includes the H value (H) of the conversion target area, the intermediate value (Hbmid) of the H value of the conversion target area, and the hue coordinate position of the H value of the pixel to be converted. The hue coordinate position of the intermediate value of the H value of the area to be converted is compared, the hue coordinate position of the H value of the pixel to be converted is close, and the intermediate value of the H value of the area to be converted The H value representative value (Hcmid) of the adjacent region far from the hue coordinate position is converted by a conversion formula corresponding to the conversion formula (Formula 2) (that is, using the saturation correction table of the B region). The S value (Sb ′) of the conversion target area (calculated) and adjacent converted by the conversion expression corresponding to the conversion expression (Expression 3) (that is, calculated using the saturation correction table of the C area) Using the S value (Sc ′) of the region, it can be obtained by the following equation.

Sb’’ = {(H−Hcmid)×Sb’+(Hbmid−H)×Sc’}
÷{(Hbmid−Hcmid)} ・・・(式7)
なお、上記Hbmid、Hcmidは、上記再設定された「代表値」である。
Sb ″ = {(H−Hcmid) × Sb ′ + (Hbmid−H) × Sc ′}
÷ {(Hbmid−Hcmid)} (Expression 7)
The Hbmid and Hcmid are the “representative values” that have been reset.

また、この例における補正されたV値(Vb’’)は、変換対象領域のH値(H)、変換対象領域のH値の代表値(Hbmid)、隣接する領域のH値の代表値(Hcmid)、上記変換式(式4)に対応する変換式で変換された(すなわち、B領域の明度補正テーブルを用いて算出された)変換対象領域のV値(Vb’)、上記変換式(式5)に対応する変換式で変換された(すなわち、C領域の明度補正テーブルを用いて算出された)隣接する領域のS値(Vc’)を用いて、以下の式で求めることができる。   Further, the corrected V value (Vb ″) in this example includes the H value (H) of the conversion target region, the representative value (Hbmid) of the H value of the conversion target region, and the representative value of the H value of the adjacent region (Hbmid). Hcmid), the V value (Vb ′) of the conversion target area converted by the conversion expression corresponding to the conversion expression (Expression 4) (that is, calculated using the brightness correction table of the B area), and the conversion expression ( Using the S value (Vc ′) of the adjacent region converted by the conversion equation corresponding to Equation 5 (that is, calculated using the brightness correction table of the C region), the following equation can be used. .

Vb’’ = {(H−Hcmid)×Vb’+(Hbmid−H)×Vc’}
÷{(Hbmid−Hcmid)} ・・・(式8)
前述した処理を、図19に示されるB領域の一部(H値の範囲:210<H≦240)及びC領域の一部(H値の範囲180<H≦210)に対して行う。これにより、入力の色相値(H)に応じた重み付け計算により、出力の彩度値(S'')及び明度値(V'')を求めることにより、各色相間の補正効果を滑らかにすることができる。
Vb ″ = {(H−Hcmid) × Vb ′ + (Hbmid−H) × Vc ′}
÷ {(Hbmid−Hcmid)} (Equation 8)
The above-described processing is performed on part of the B area (H value range: 210 <H ≦ 240) and part of the C area (H value range 180 <H ≦ 210) shown in FIG. As a result, the output saturation value (S ″) and lightness value (V ″) are obtained by weighting calculation according to the input hue value (H), thereby smoothing the correction effect between the hues. Can do.

(15)上記実施形態では、画像処理装置として複合機10を例示したが、これに限定されるものではなく、例えば、パーソナルコンピュータのような情報処理装置であってもよい。   (15) In the above embodiment, the multifunction machine 10 is illustrated as the image processing apparatus, but the present invention is not limited to this, and may be an information processing apparatus such as a personal computer.

第1実施形態の複合機の外観を示す斜視図である。1 is a perspective view illustrating an appearance of a multifunction machine according to a first embodiment. 複合機の制御系の概略構成を示すブロック図である。FIG. 2 is a block diagram illustrating a schematic configuration of a control system of the multifunction machine. 色変換処理におけるユーザの動作及び複合機の処理の概略を示した説明図である。FIG. 6 is an explanatory diagram illustrating an outline of a user operation and a process of a multifunction machine in a color conversion process. 第1実施形態の色変換処理のフローチャートである。It is a flowchart of the color conversion process of 1st Embodiment. 補正イメージ画像の表示画面の説明図である。It is explanatory drawing of the display screen of a correction | amendment image image. インデックス印刷用の画像の説明図である。It is explanatory drawing of the image for index printing. 第2特徴量特定処理のフローチャートである。It is a flowchart of the 2nd feature-value specific process. 第1特徴量特定処理のフローチャートである。It is a flowchart of a 1st feature-value specific process. 色相補正テーブルの説明図である。It is explanatory drawing of a hue correction table. 第2実施形態の色変換処理のフローチャートである。It is a flowchart of the color conversion process of 2nd Embodiment. 原稿載置面における不特定の位置に複数の画像が配置された状態を示す説明図である。FIG. 5 is an explanatory diagram showing a state in which a plurality of images are arranged at unspecified positions on a document placement surface. 代表値再設定処理のフローチャートである。It is a flowchart of a representative value reset process. B領域のみを変換対象とした場合に作成される色相補正テーブルの説明図である。It is explanatory drawing of the hue correction table produced when only B area | region is made into conversion object. 変形例における色相補正テーブルを示した図である。It is the figure which showed the hue correction table in a modification. 彩度補正テーブルを示した図である。It is the figure which showed the saturation correction table. 彩度補正のカーブの変化を示した図である。It is the figure which showed the change of the curve of saturation correction | amendment. B領域及びC領域における彩度補正テーブルを示した図である。It is the figure which showed the saturation correction table in B area | region and C area | region. B領域及びC領域における補正されたS値を示した図である。It is the figure which showed the corrected S value in B area | region and C area | region. B領域及びC領域の一部が変換対象となることを示した図である。It is the figure which showed that a part of B area | region and C area | region became conversion object.

符号の説明Explanation of symbols

10…複合機、11…本体ケーシング、12…開口、20…画像読取部、21…原稿カバー、30…操作パネル、31…操作部、32…表示部、40…画像印刷部、50…カードスロット、60…通信部、70…制御部、71…CPU、72…ROM、73…RAM、80…信号線   DESCRIPTION OF SYMBOLS 10 ... MFP, 11 ... Main body casing, 12 ... Opening, 20 ... Image reading part, 21 ... Document cover, 30 ... Operation panel, 31 ... Operation part, 32 ... Display part, 40 ... Image printing part, 50 ... Card slot , 60 ... communication section, 70 ... control section, 71 ... CPU, 72 ... ROM, 73 ... RAM, 80 ... signal line

Claims (13)

複数種類の第1画像を入力可能な第1画像入力手段と、
前記第1画像入力手段により入力された第1画像の特徴を表す第1特徴量を、入力された第1画像ごとに特定する第1特徴量特定手段と、
画像補正の対象とする画像である第2画像を入力する第2画像入力手段と、
前記第2画像入力手段により入力された第2画像の特徴を表す第2特徴量を特定する第2特徴量特定手段と、
前記第2特徴量を前記第1特徴量に近づけるように前記第2画像に対する画像補正処理を行った場合の画像補正処理結果を表す補正イメージ画像を、前記複数の第1特徴量のそれぞれについて生成するイメージ画像生成手段と、
前記イメージ画像生成手段により生成された複数の補正イメージ画像を、各補正イメージ画像の生成に用いた第1特徴量が特定された第1画像とそれぞれ対応付けて配置した状態で出力するイメージ画像出力手段と、
を備えることを特徴とする画像処理装置。
First image input means capable of inputting a plurality of types of first images;
First feature amount specifying means for specifying, for each input first image, a first feature amount representing a feature of the first image input by the first image input means;
Second image input means for inputting a second image which is an image to be subjected to image correction;
Second feature amount specifying means for specifying a second feature amount representing a feature of the second image input by the second image input means;
For each of the plurality of first feature amounts, a corrected image image representing an image correction processing result when image correction processing is performed on the second image so that the second feature amount is close to the first feature amount is generated. Image generating means for performing,
Image image output for outputting a plurality of corrected image images generated by the image image generating means in a state of being arranged in association with the first image in which the first feature amount used for generating each corrected image image is specified. Means,
An image processing apparatus comprising:
前記第2画像入力手段により入力された第2画像を加工した加工画像を生成する加工画像生成手段を備え、
前記イメージ画像生成手段は、前記加工画像生成手段により生成された加工画像に対する前記画像補正処理を行うことにより前記補正イメージ画像を生成すること
を特徴とする請求項1に記載の画像処理装置。
A processed image generating means for generating a processed image obtained by processing the second image input by the second image input means;
The image processing apparatus according to claim 1, wherein the image image generation unit generates the corrected image image by performing the image correction process on the processed image generated by the processed image generation unit.
加工画像生成手段は、前記第2画像入力手段により入力された第2画像を縮小した画像を前記加工画像として生成すること
を特徴とする請求項2に記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the processed image generation unit generates an image obtained by reducing the second image input by the second image input unit as the processed image.
前記イメージ画像出力手段により出力された補正イメージ画像のうちの1つを選択する選択手段と、
前記第2特徴量を前記選択手段により選択された補正イメージ画像の生成に用いた第1特徴量に近づけるように前記第2画像に対する画像補正処理を行う画像補正手段と、
を備えることを特徴とする請求項2又は請求項3に記載の画像処理装置。
Selection means for selecting one of the corrected image images output by the image image output means;
Image correction means for performing image correction processing on the second image so that the second feature quantity is close to the first feature quantity used for generation of the corrected image image selected by the selection means;
The image processing apparatus according to claim 2, further comprising:
前記画像補正手段により画像補正処理が行われた第2画像を印刷するための印刷処理を行う印刷制御手段を備えること
を特徴とする請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, further comprising: a print control unit that performs a printing process for printing the second image that has been subjected to the image correction process by the image correction unit.
前記イメージ画像生成手段は、前記第2画像に対して実際に前記画像補正処理を行った結果に基づき前記補正イメージ画像を生成するものであり、
前記イメージ画像出力手段により出力された補正イメージ画像のうちの1つを選択する選択手段と、
前記イメージ画像生成手段により画像補正処理が行われた第2画像のうち前記選択手段により選択された補正イメージ画像に対応するものを印刷するための印刷処理を行う印刷制御手段と、
を備えることを特徴とする請求項1に記載の画像処理装置。
The image image generation means generates the corrected image image based on a result of actually performing the image correction process on the second image,
Selection means for selecting one of the corrected image images output by the image image output means;
A print control unit that performs a printing process for printing a second image that has been subjected to the image correction process by the image image generation unit and that corresponds to the corrected image image selected by the selection unit;
The image processing apparatus according to claim 1, further comprising:
前記イメージ画像出力手段は、前記補正イメージ画像及びその補正イメージ画像の生成に用いた第1特徴量が特定された第1画像をその第1特徴量に基づいて配置すること
を特徴とする請求項1から請求項6までのいずれか1項に記載の画像処理装置。
The said image image output means arrange | positions the 1st image by which the 1st feature-value used for the production | generation of the said correction | amendment image image and its correction image image is arrange | positioned based on the 1st feature-value. The image processing apparatus according to any one of claims 1 to 6.
前記第1画像入力手段は、所定の読取位置にセットされた印刷媒体から光学的に読み取られる画像を入力するものであり、前記読取位置にセットされた印刷媒体から複数の画像が読み取られた場合に、各画像をそれぞれ独立した第1画像として入力可能であること
を特徴とする請求項1から請求項7までのいずれか1項に記載の画像処理装置。
The first image input means inputs an image optically read from a print medium set at a predetermined reading position, and when a plurality of images are read from the print medium set at the reading position The image processing apparatus according to any one of claims 1 to 7, wherein each image can be input as an independent first image.
前記第1画像入力手段は、前記読取位置を複数に分割した各読取領域で読み取られる画像を独立した第1画像として入力すること
を特徴とする請求項8に記載の画像処理装置。
The image processing apparatus according to claim 8, wherein the first image input unit inputs an image read in each reading area obtained by dividing the reading position into a plurality of parts as an independent first image.
前記第1画像入力手段は、所定の読取位置にセットされた印刷媒体から光学的に読み取られる画像を入力するものであり、前記読取位置を複数に分割した各読取領域で読み取られる画像をそれぞれ独立した第1画像として入力し、
前記イメージ画像出力手段は、前記補正イメージ画像及びその補正イメージ画像の生成に用いた第1特徴量が特定された第1画像を前記読取領域ごとに対応付けられた所定の位置に配置すること
を特徴とする請求項1から請求項6までのいずれか1項に記載の画像処理装置。
The first image input means inputs an image that is optically read from a printing medium set at a predetermined reading position, and the images read in each reading area obtained by dividing the reading position into a plurality of parts are independent of each other. Input as the first image,
The image image output means arranges the corrected image and the first image in which the first feature used for generating the corrected image is specified at a predetermined position associated with each reading area. The image processing apparatus according to any one of claims 1 to 6, wherein the image processing apparatus is characterized.
前記第1画像入力手段は、前記読取領域で読み取られた画像の平均輝度値が所定値以上の場合には、その読取領域には画像が存在しないと判定すること
を特徴とする請求項9又は請求項10に記載の画像処理装置。
The first image input means determines that there is no image in the reading area when the average luminance value of the image read in the reading area is equal to or greater than a predetermined value. The image processing apparatus according to claim 10.
前記イメージ画像出力手段は、前記補正イメージ画像及びその補正イメージ画像の生成に用いた第1特徴量が特定された第1画像を印刷出力すること
を特徴とする請求項1から請求項11までのいずれか1項に記載の画像処理装置。
The said image image output means prints out the 1st image by which the 1st feature-value used for generation | occurrence | production of the said correction | amendment image image and its correction | amendment image image was printed out, The Claims 1-11 characterized by the above-mentioned. The image processing apparatus according to any one of the above.
複数種類の第1画像を入力可能な第1画像入力手段と、
前記第1画像入力手段により入力された第1画像の特徴を表す第1特徴量を、入力された第1画像ごとに特定する第1特徴量特定手段と、
画像補正の対象とする画像である第2画像を入力する第2画像入力手段と、
前記第2画像入力手段により入力された第2画像の特徴を表す第2特徴量を特定する第2特徴量特定手段と、
前記第2特徴量を前記第1特徴量に近づけるように前記第2画像に対する画像補正処理を行った場合の画像補正処理結果を表す補正イメージ画像を、前記複数の第1特徴量のそれぞれについて生成するイメージ画像生成手段と、
前記イメージ画像生成手段により生成された複数の補正イメージ画像を、各補正イメージ画像の生成に用いた第1特徴量が特定された第1画像とそれぞれ対応付けて配置した状態で出力するイメージ画像出力手段としてコンピュータを機能させること
を特徴とする画像処理プログラム。
First image input means capable of inputting a plurality of types of first images;
First feature amount specifying means for specifying, for each input first image, a first feature amount representing a feature of the first image input by the first image input means;
Second image input means for inputting a second image which is an image to be subjected to image correction;
Second feature amount specifying means for specifying a second feature amount representing a feature of the second image input by the second image input means;
For each of the plurality of first feature amounts, a corrected image image representing an image correction processing result when image correction processing is performed on the second image so that the second feature amount is close to the first feature amount is generated. Image generating means for performing,
Image image output for outputting a plurality of corrected image images generated by the image image generating means in a state of being arranged in association with the first image in which the first feature amount used for generating each corrected image image is specified. An image processing program for causing a computer to function as means.
JP2007226088A 2007-08-31 2007-08-31 Image processing apparatus and image processing program Expired - Fee Related JP4985243B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007226088A JP4985243B2 (en) 2007-08-31 2007-08-31 Image processing apparatus and image processing program
US12/202,872 US8174731B2 (en) 2007-08-31 2008-09-02 Image processing device outputting image for selecting sample image for image correction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007226088A JP4985243B2 (en) 2007-08-31 2007-08-31 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2009060388A true JP2009060388A (en) 2009-03-19
JP4985243B2 JP4985243B2 (en) 2012-07-25

Family

ID=40555712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007226088A Expired - Fee Related JP4985243B2 (en) 2007-08-31 2007-08-31 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP4985243B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014235554A (en) * 2013-05-31 2014-12-15 株式会社ニコン Image processing program
JP2015173403A (en) * 2014-03-12 2015-10-01 ブラザー工業株式会社 Image information control apparatus, program, and image information control system
JP2017228313A (en) * 2017-09-07 2017-12-28 株式会社ニコン Image processing program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6337430B2 (en) 2013-08-22 2018-06-06 株式会社リコー Image processing system, image processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11185034A (en) * 1997-12-24 1999-07-09 Casio Comput Co Ltd Image data correction device and recording medium recording image data correction processing program
JP2004054751A (en) * 2002-07-23 2004-02-19 Panasonic Communications Co Ltd Image processing system and image processing method
JP2005202469A (en) * 2004-01-13 2005-07-28 Fuji Xerox Co Ltd Image processor, image processing method and program
JP2006121695A (en) * 2004-10-18 2006-05-11 Thomson Licensing Device and method for color correction of input image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11185034A (en) * 1997-12-24 1999-07-09 Casio Comput Co Ltd Image data correction device and recording medium recording image data correction processing program
JP2004054751A (en) * 2002-07-23 2004-02-19 Panasonic Communications Co Ltd Image processing system and image processing method
JP2005202469A (en) * 2004-01-13 2005-07-28 Fuji Xerox Co Ltd Image processor, image processing method and program
JP2006121695A (en) * 2004-10-18 2006-05-11 Thomson Licensing Device and method for color correction of input image

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014235554A (en) * 2013-05-31 2014-12-15 株式会社ニコン Image processing program
JP2015173403A (en) * 2014-03-12 2015-10-01 ブラザー工業株式会社 Image information control apparatus, program, and image information control system
JP2017228313A (en) * 2017-09-07 2017-12-28 株式会社ニコン Image processing program

Also Published As

Publication number Publication date
JP4985243B2 (en) 2012-07-25

Similar Documents

Publication Publication Date Title
JP4442664B2 (en) Image processing apparatus, image processing method, and image processing program
US8174731B2 (en) Image processing device outputting image for selecting sample image for image correction
US20090027732A1 (en) Image processing apparatus, image processing method, and computer program
US7616216B2 (en) Digital content creation system, program product, and storage medium
KR101756277B1 (en) Image forming apparatus and method for processing image thereof
JP4985243B2 (en) Image processing apparatus and image processing program
US8019128B2 (en) Face detection device
US8270029B2 (en) Methods, apparatus and systems for using black-only on the neutral axis in color management profiles
JP4433017B2 (en) Image processing apparatus and image processing program
JP4389977B2 (en) Image printing apparatus, image printing method, and image printing program
US8159716B2 (en) Image processing device performing image correction by using a plurality of sample images
US8094343B2 (en) Image processor
JP4793356B2 (en) Image processing apparatus and image processing program
JP2022050362A (en) System and method to detect, suppress and modify background regions of scanned documents
JP4826562B2 (en) Image processing apparatus, image processing method, and image processing program
JP4840295B2 (en) Image processing apparatus and image processing program
JP4831020B2 (en) Image processing apparatus, image processing method, and image processing program
JP4442665B2 (en) Image processing apparatus and image processing program
JP4442663B2 (en) Image processing apparatus and image processing program
JP5045836B2 (en) Image processing apparatus and image processing program
JP4831019B2 (en) Image processing apparatus, image processing method, and image processing printing program
JP2009284214A (en) Image processing device, image processing method, program and recoding medium
JPH04160982A (en) Image processor for each image area of copying machine
JP2011228923A (en) Document reader

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120416

R150 Certificate of patent or registration of utility model

Ref document number: 4985243

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees