JP4442665B2 - Image processing apparatus and image processing program - Google Patents
Image processing apparatus and image processing program Download PDFInfo
- Publication number
- JP4442665B2 JP4442665B2 JP2007226588A JP2007226588A JP4442665B2 JP 4442665 B2 JP4442665 B2 JP 4442665B2 JP 2007226588 A JP2007226588 A JP 2007226588A JP 2007226588 A JP2007226588 A JP 2007226588A JP 4442665 B2 JP4442665 B2 JP 4442665B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- feature amount
- correction
- corrected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Description
本発明は、容易な操作で画像補正をすることが可能な画像処理装置等に関する。 The present invention relates to an image processing apparatus capable of correcting an image with an easy operation.
デジタルカメラ等の普及に伴い、個人で撮影した画像を家庭用印刷装置で印刷することが普及している。また、印刷媒体に記憶された画像を家庭用印刷装置で印刷(複写)することも普及している。このような場合、取得した画像が所望の色味や色調でない場合は、印刷前に当該画像の画像補正をすることが望まれている。 With the popularization of digital cameras and the like, it has become popular to print images taken by individuals using a home printing device. In addition, printing (copying) an image stored on a print medium with a home printing apparatus is also widespread. In such a case, if the acquired image does not have a desired color or tone, it is desired to correct the image before printing.
ここで、例えば、下記特許文献1には、画像調整することが可能な印刷装置が開示されている。この印刷装置では、取得した画像の画質を調整するために、調整用データを入力する必要がある。 Here, for example, Patent Document 1 below discloses a printing apparatus capable of image adjustment. In this printing apparatus, it is necessary to input adjustment data in order to adjust the image quality of the acquired image.
上記のような印刷装置においては、画像の調整を行うために、具体的なデータを入力する必要があるため、画像に関する知識が必要となり感覚的な色調整を行うことができない。また、上記文献においては、調整用データを選択ないし設定する必要があるため、簡易な操作ではない。さらに、印刷前や画像補正前の段階で、どのような画像補正が施されるかを確認できることが望ましい。 In the printing apparatus as described above, it is necessary to input specific data in order to adjust the image, so knowledge about the image is required, and sensory color adjustment cannot be performed. Further, in the above document, since it is necessary to select or set adjustment data, it is not a simple operation. Furthermore, it is desirable to be able to confirm what kind of image correction is performed before printing or before image correction.
そこで本発明は、上記課題を解決するため、どのような画像補正が施させるかについての確認ができ、感覚的に所望の画像補正が可能な画像処理装置を提供することを目的とする。 Accordingly, an object of the present invention is to provide an image processing apparatus that can confirm what kind of image correction is performed and can perform desired image correction sensuously in order to solve the above-described problems.
上記目的を達成するため、請求項1に係る発明は、第1画像入力手段、第2画像入力手段、作成手段、特徴量抽出手段、画像補正手段、表示手段、印刷制御手段を備える画像処理装置において、前記第1画像入力手段は、第1画像を入力し、前記第2画像入力手段は、第2画像を入力し、前記作成手段は、前記第2画像を第2表示用画像として作成し、前記特徴量抽出手段は、第1画像から第1特徴量を、前記第2画像または前記第2表示用画像から第2特徴量を抽出し、前記画像補正手段は、前記第1特徴量及び前記第2特徴量に基いて、前記第2表示用画像及び前記第2画像を画像補正し、前記表示手段は、前記画像補正された第2表示用画像を表示し、前記印刷制御手段は、前記表示手段の表示結果に基いて、前記画像補正手段により画像補正された第2画像を印刷するための処理を実行し、前記画像補正手段は、前記第2表示用画像の所定領域に対して画像補正を行い、前記表示手段は、前記画像補正された表示用画像を、前記画像補正された領域と画像補正されなかった領域との境界に境界線を描いた画像を表示し、前記境界線の色は、前記画像補正された領域の色情報に基いて決定される、ことを特徴とする。 In order to achieve the above object, an invention according to claim 1 is an image processing apparatus comprising first image input means, second image input means, creation means, feature amount extraction means, image correction means, display means, and print control means. The first image input means inputs a first image, the second image input means inputs a second image, and the creation means creates the second image as a second display image. The feature quantity extraction unit extracts a first feature quantity from the first image and a second feature quantity from the second image or the second display image, and the image correction unit extracts the first feature quantity and the second feature quantity. Based on the second feature amount, the second display image and the second image are corrected, the display means displays the image-corrected second display image, and the print control means includes: Based on the display result of the display means, the image correction means Performs processing for printing the second image that is an image correction, the image correction unit performs image correction on a predetermined region of the second display image, said display means being the image correction The display image is displayed as an image in which a boundary line is drawn at the boundary between the image-corrected region and the region that has not been image-corrected, and the color of the boundary line is based on color information of the image-corrected region. Determined .
請求項2に係る発明は、第1画像入力手段、第2画像入力手段、作成手段、特徴量抽出手段、画像補正手段、表示手段を備える画像処理装置において、前記第1画像入力手段は、第1画像を入力し、前記第2画像入力手段は、第2画像を入力し、前記作成手段は、前記第2画像を第2表示用画像として作成し、前記特徴量抽出手段は、第1画像から第1特徴量を、前記第2画像または前記第2表示用画像から第2特徴量を抽出し、前記画像補正手段は、前記第1特徴量及び前記第2特徴量に基いて、前記第2表示用画像を画像補正し、前記表示手段は、前記画像補正された第2表示用画像を表示し、前記画像補正手段は、前記表示手段の表示結果に基いて、前記第2画像を画像補正し、前記第2表示用画像の所定領域に対して画像補正を行い、前記表示手段は、前記画像補正された表示用画像を、前記画像補正された領域と画像補正されなかった領域との境界に境界線を描いた画像を表示し、前記境界線の色は、前記画像補正された領域の色情報に基いて決定される、ことを特徴とする。 According to a second aspect of the present invention, there is provided an image processing apparatus including a first image input unit, a second image input unit, a creation unit, a feature amount extraction unit, an image correction unit, and a display unit. One image is input, the second image input means inputs a second image, the creating means creates the second image as a second display image, and the feature quantity extracting means is a first image. The first feature amount is extracted from the second image or the second display image, and the image correction unit is configured to extract the first feature amount based on the first feature amount and the second feature amount. 2 The image for display is corrected, the display means displays the second image for display corrected, and the image correction means converts the second image into an image based on the display result of the display means. corrected, performs image correction on a predetermined region of the second display image The display means displays the image for which the image is corrected, an image in which a boundary line is drawn at a boundary between the image-corrected region and a region where the image correction is not performed, and the color of the boundary line is It is determined based on the color information of the image-corrected area .
請求項3に係る発明は、第1画像入力手段、第2画像入力手段、作成手段、特徴量抽出手段、画像補正手段、表示手段、印刷制御手段を備える画像処理装置において、前記第1画像入力手段は、第1画像を入力し、前記第2画像入力手段は、第2画像を入力し、前記作成手段は、前記第2画像を第2表示用画像として作成し、前記特徴量抽出手段は、第1画像から第1特徴量を、前記第2画像または前記第2表示用画像から第2特徴量を抽出し、前記画像補正手段は、前記第1特徴量及び前記第2特徴量に基いて、前記第2表示用画像及び前記第2画像を画像補正し、前記表示手段は、前記画像補正された第2表示用画像を表示し、前記印刷制御手段は、前記表示手段の表示結果に基いて、前記画像補正手段により画像補正された第2画像を印刷するための処理を実行し、前記画像補正手段は、前記第2表示用画像の所定領域に対して画像補正を行い、前記表示手段は、前記画像補正された表示用画像を、前記画像補正されなかった領域を無彩色に変換し、前記無彩色に変換した領域の階調を他の領域より小さくして表示する、ことを特徴とする。 According to a third aspect of the present invention, there is provided an image processing apparatus comprising a first image input unit, a second image input unit, a creation unit, a feature amount extraction unit, an image correction unit, a display unit, and a print control unit. The means inputs a first image, the second image input means inputs a second image, the creation means creates the second image as a second display image, and the feature quantity extraction means includes Extracting a first feature quantity from the first image and a second feature quantity from the second image or the second display image, and the image correcting means is based on the first feature quantity and the second feature quantity. The second display image and the second image are image-corrected, the display means displays the image-corrected second display image, and the print control means displays the display result of the display means. On the basis of the second image corrected by the image correcting means, A process for printing, the image correction unit performs image correction on a predetermined area of the second display image, and the display unit converts the image corrected display image into the image correction unit. The area that has not been converted is converted to an achromatic color, and the gradation of the area that has been converted to the achromatic color is displayed smaller than the other areas.
請求項4に係る発明は、第1画像入力手段、第2画像入力手段、作成手段、特徴量抽出手段、画像補正手段、表示手段を備える画像処理装置において、前記第1画像入力手段は、第1画像を入力し、前記第2画像入力手段は、第2画像を入力し、前記作成手段は、前記第2画像を第2表示用画像として作成し、前記特徴量抽出手段は、第1画像から第1特徴量を、前記第2画像または前記第2表示用画像から第2特徴量を抽出し、前記画像補正手段は、前記第1特徴量及び前記第2特徴量に基いて、前記第2表示用画像を画像補正し、前記表示手段は、前記画像補正された第2表示用画像を表示し、前記画像補正手段は、前記表示手段の表示結果に基いて、前記第2画像を画像補正し、前記第2表示用画像の所定領域に対して画像補正を行い、前記表示手段は、前記画像補正された表示用画像を、前記画像補正されなかった領域を無彩色に変換し、前記無彩色に変換した領域の階調を他の領域より小さくして表示する、ことを特徴とする。 According to a fourth aspect of the present invention, there is provided an image processing apparatus including a first image input unit, a second image input unit, a creation unit, a feature amount extraction unit, an image correction unit, and a display unit. One image is input, the second image input means inputs a second image, the creating means creates the second image as a second display image, and the feature quantity extracting means is a first image. The first feature amount is extracted from the second image or the second display image, and the image correction unit is configured to extract the first feature amount based on the first feature amount and the second feature amount. 2 The image for display is corrected, the display means displays the second image for display corrected, and the image correction means converts the second image into an image based on the display result of the display means. And correct the image on a predetermined area of the second display image. The display means displays the image-corrected display image by converting the area that has not been image-corrected into an achromatic color, and displaying the gradation of the area that has been converted to the achromatic color smaller than other areas. It is characterized by that.
請求項5に係る発明は、請求項1〜4のいずれかに記載の画像処理装置において、前記第1特徴量及び前記第2特徴量に基づいて補正データを作成する補正データ作成手段を備え、前記画像変換手段は、前記補正データ基いて、前記第2表示用画像及び前記第2画像の画像補正を行う、ことを特徴とする。 The invention according to claim 5 is the image processing apparatus according to any one of claims 1 to 4, further comprising correction data creating means for creating correction data based on the first feature quantity and the second feature quantity, The image conversion means performs image correction of the second display image and the second image based on the correction data.
請求項6に係る発明は、請求項5に記載の画像処理装置において、前記特徴量抽出手段は、前記第1画像から色相に関する特徴量を抽出し、前記特徴量抽出手段は、前記第2画像または前記第2表示用画像から色相に関する特徴量を抽出し、前記色相に関する特徴量に基いて前記第1画像、前記第2画像または前記第2表示用画像それぞれを複数の領域に分割し、前記分割した領域ごとに色相以外に関する特徴量を抽出し、前記補正データ作成手段は、前記第1画像、及び、前記第2画像または前記第2表示用画像それぞれの分割された領域ごとに、前記色相に関する特徴量の代表値を抽出し、当該代表値に基いて色相補正データを作成し、前記第1画像、及び、前記第2画像または前記第2表示用画像それぞれの分割された領域ごとに、前記色相以外に関する特徴量の代表値を抽出し、前記画像補正手段は、前記第2画像及び前記第2表示用画像の画素ごとの色相に関する特徴量を、前記色相補正データに基いて補正し、前記第2画像及び前記第2表示用画像の画素ごとの色相以外に関する特徴量を、前記領域ごとの代表値に基いて補正する、ことを特徴とする。 According to a sixth aspect of the present invention, in the image processing apparatus according to the fifth aspect, the feature amount extraction unit extracts a feature amount related to a hue from the first image, and the feature amount extraction unit includes the second image. Alternatively, a feature amount related to hue is extracted from the second display image, and the first image, the second image, or the second display image is divided into a plurality of regions based on the feature amount related to the hue, and A feature value related to other than the hue is extracted for each divided area, and the correction data generation unit is configured to output the hue for each divided area of the first image and the second image or the second display image. A representative value of the feature amount relating to, and creating hue correction data based on the representative value, for each of the divided areas of the first image and the second image or the second display image, in front A representative value of a feature amount related to other than hue is extracted, and the image correction unit corrects a feature amount related to a hue for each pixel of the second image and the second display image based on the hue correction data, and A feature amount related to a hue other than a hue for each pixel of the second image and the second display image is corrected based on a representative value for each region.
請求項7に係る発明は、請求項6に記載の画像処理装置において、前記色相に関する特徴量は、HSV空間におけるH値に基いて算出される、ことを特徴とする。 According to a seventh aspect of the present invention, in the image processing apparatus according to the sixth aspect, the feature quantity related to the hue is calculated based on an H value in the HSV space.
請求項8に係る発明は、コンピュータに、第1画像を入力する第1画像入力ステップ、第2画像を入力する第2画像入力ステップ、第2画像を第2表示用画像として作成する作成ステップ、前記第1画像から第1特徴量を抽出する第1特徴量抽出ステップ、前記第2画像または前記第2表示用画像から第2特徴量を抽出する第2特徴量抽出ステップ、前記第1特徴量及び前記第2特徴量に基いて、前記第2表示用画像及び前記第2画像を画像補正する第1画像補正ステップ、前記画像補正された第2表示用画像を表示する第1表示ステップ、前記第1表示ステップの表示結果に基いて、前記画像補正された第2画像を印刷するための処理を実行する印刷制御ステップ、前記第2表示用画像の所定領域に対して画像補正を行う第2画像補正ステップ、前記画像補正された表示用画像を、前記画像補正された領域と画像補正されなかった領域との境界に境界線を描いた画像で表示する第2表示ステップ、前記画像補正された領域の色情報に基いて、前記境界線の色を決定する線色決定ステップ、を実行させることを特徴とする。 The invention according to claim 8 is a first image input step for inputting a first image to a computer, a second image input step for inputting a second image, a creation step for creating the second image as a second display image, A first feature amount extracting step for extracting a first feature amount from the first image; a second feature amount extracting step for extracting a second feature amount from the second image or the second display image; and the first feature amount. And a first image correcting step for correcting the second display image and the second image based on the second feature amount, a first display step for displaying the image corrected second display image, Based on the display result of the first display step, a print control step for executing a process for printing the second image with the image corrected, and a second for performing image correction on a predetermined area of the second display image. Image correction step A second display step of displaying the image-corrected display image in an image in which a boundary line is drawn at a boundary between the image-corrected region and a region that has not been image-corrected; A line color determining step for determining a color of the boundary line based on color information is executed.
請求項9に係る発明は、コンピュータに、第1画像を入力する第1画像入力ステップ、第2画像を入力する第2画像入力ステップ、第2画像を第2表示用画像として作成する作成ステップ、前記第1画像から第1特徴量を抽出する第1特徴量抽出ステップ、前記第2画像または前記第2表示用画像から第2特徴量を抽出する第2特徴量抽出ステップ、前記第1特徴量及び前記第2特徴量に基いて、前記第2表示用画像を画像補正する第1画像補正ステップ、前記画像補正された第2表示用画像を表示する第1表示ステップ、前記第1表示ステップの表示結果に基いて、前記第2画像を画像補正し、前記第2表示用画像の所定領域に対して画像補正を行う第2画像補正ステップ、前記画像補正された表示用画像を、前記画像補正された領域と画像補正されなかった領域との境界に境界線を描いた画像で表示する第2表示ステップ、前記画像補正された領域の色情報に基いて、前記境界線の色を決定する線色決定ステップ、を実行させることを特徴とする。 The invention according to claim 9 is a first image input step for inputting a first image to a computer, a second image input step for inputting a second image, a creation step for creating the second image as a second display image, A first feature amount extracting step for extracting a first feature amount from the first image; a second feature amount extracting step for extracting a second feature amount from the second image or the second display image; and the first feature amount. And a first image correction step for correcting the second display image based on the second feature amount, a first display step for displaying the image corrected second display image, and a first display step. A second image correction step of correcting the second image based on a display result and performing image correction on a predetermined area of the second display image; Area and image A second display step of displaying an image in which a boundary line is drawn at the boundary with the uncorrected region; a line color determining step of determining a color of the boundary line based on color information of the image-corrected region; It is made to perform.
請求項10に係る発明は、コンピュータに、第1画像を入力する第1画像入力ステップ、第2画像を入力する第2画像入力ステップ、第2画像を第2表示用画像として作成する作成ステップ、前記第1画像から第1特徴量を抽出する第1特徴量抽出ステップ、前記第2画像または前記第2表示用画像から第2特徴量を抽出する第2特徴量抽出ステップ、前記第1特徴量及び前記第2特徴量に基いて、前記第2表示用画像及び前記第2画像を画像補正する第1画像補正ステップ、前記画像補正された第2表示用画像を表示する第1表示ステップ、前記第1表示ステップの表示結果に基いて、前記画像補正された第2画像を印刷するための処理を実行する印刷制御ステップ、前記第2表示用画像の所定領域に対して画像補正を行う第2画像補正ステップ、前記画像補正された表示用画像を、前記画像補正されなかった領域を無彩色に変換し、前記無彩色に変換した領域の階調を他の領域より小さくして表示する第2表示ステップ、を実行させることを特徴とする。 The invention according to claim 10 is a first image input step for inputting a first image to a computer, a second image input step for inputting a second image, a creation step for creating the second image as a second display image, A first feature amount extracting step for extracting a first feature amount from the first image; a second feature amount extracting step for extracting a second feature amount from the second image or the second display image; and the first feature amount. And a first image correcting step for correcting the second display image and the second image based on the second feature amount, a first display step for displaying the image corrected second display image, Based on the display result of the first display step, a print control step for executing a process for printing the second image with the image corrected, and a second for performing image correction on a predetermined area of the second display image. Image correction The second display for displaying the image for which the image has been corrected, by converting the non-image-corrected area to an achromatic color and lowering the gradation of the area to which the achromatic color has been converted to other areas. The step is executed.
請求項11に係る発明は、コンピュータに、第1画像を入力する第1画像入力ステップ、第2画像を入力する第2画像入力ステップ、第2画像を第2表示用画像として作成する作成ステップ、前記第1画像から第1特徴量を抽出する第1特徴量抽出ステップ、前記第2画像または前記第2表示用画像から第2特徴量を抽出する第2特徴量抽出ステップ、前記第1特徴量及び前記第2特徴量に基いて、前記第2表示用画像を画像補正する第1画像補正ステップ、前記画像補正された第2表示用画像を表示する第1表示ステップ、前記第1表示ステップの表示結果に基いて、前記第2画像を画像補正し、前記第2表示用画像の所定領域に対して画像補正を行う第2画像補正ステップ、前記画像補正された表示用画像を、前記画像補正されなかった領域を無彩色に変換し、前記無彩色に変換した領域の階調を他の領域より小さくして表示する第2表示ステップ、を実行させることを特徴とする。 The invention according to claim 11, the computer, the first image input step of inputting first image, the second image input step of inputting a second image, creating step of creating a second image as a second display image, A first feature amount extracting step for extracting a first feature amount from the first image; a second feature amount extracting step for extracting a second feature amount from the second image or the second display image; and the first feature amount. And a first image correction step for correcting the second display image based on the second feature amount, a first display step for displaying the image corrected second display image, and a first display step. A second image correction step of correcting the second image based on a display result and performing image correction on a predetermined area of the second display image; Was not Converts the frequency to an achromatic color, and said second display step of the gray scale of the region converted to achromatic display with less than other regions, is executed.
請求項1に係る発明によれば、画像入力手段により入力された画像から抽出した特徴量に基づき、感覚的に画像補正を行うことができる。加えて、画像補正する画像における表示用画像(サムネイル画像)に対して、予め記憶した特徴量に基いて画像補正を行い、画像補正を行った画像を表示させることにより、印刷前の段階で、画像補正の対象の画像に対し、どの部分にどの程度補正が行われるのかを明確に確認することができる。そして、利用者による確認操作に基いて印刷が開始されるようにすれば無駄な印刷処理を防止しつつ、感覚的に所望の画像補正が施された画像を得ることができる。また、色相を特定するために種々のパラメータを用いることができる。
又、当該発明によれば、分割された領域のうち最も面積が大きい領域についてのみ画像補正を行い、画像補正された領域を知覚されやすい態様で表示するので、印刷前の段階で、どの領域に画像補正が施されるのかを明確に確認することができる。
そして、当該発明によれば、画像補正された領域と画像補正されなかった領域との境界に境界線が描かれるので、どの領域にどの程度の画像補正が施されるのかをより一層明確に確認することができる。
更に、当該発明によれば、前記画像補正された領域の色情報に基いて境界線の色が決定されるので、どの領域にどの程度の画像補正が施されるのかをより一層明確に確認することができる。
According to the first aspect of the present invention, image correction can be performed sensuously based on the feature amount extracted from the image input by the image input means. In addition, by performing image correction on the display image (thumbnail image) in the image to be image-corrected based on the pre-stored feature amount and displaying the image that has been subjected to image correction, in the stage before printing, It is possible to clearly confirm how much correction is performed on which part of the image to be corrected. Then, if printing is started based on a confirmation operation by the user, it is possible to obtain an image that is sensuously subjected to desired image correction while preventing unnecessary printing processing. Various parameters can be used to specify the hue.
Further, according to the present invention, image correction is performed only for the area having the largest area among the divided areas, and the image-corrected area is displayed in a manner that is easily perceived. It is possible to clearly confirm whether image correction is performed.
According to the invention, since a boundary line is drawn at the boundary between the image-corrected region and the non-image-corrected region, it is more clearly confirmed which image correction is applied to which region. can do.
Further, according to the present invention, since the color of the boundary line is determined based on the color information of the image corrected region, it is more clearly confirmed which image correction is applied to which region. be able to.
請求項2に係る発明によれば、画像入力手段により入力された画像から抽出した特徴量に基づき、感覚的に画像補正を行うことができる。加えて、画像補正する画像における表示用画像(サムネイル画像)に対して、予め記憶した特徴量に基いて画像補正を行い、画像補正を行った画像を表示させることにより、画像補正前の段階で、画像補正の対象の画像に対し、どの部分にどの程度補正が行われるのかを明確に確認することができる。そして、利用者による確認操作に基いて印刷が開始されるようにすれば無駄な印刷処理を防止しつつ、感覚的に所望の画像補正が施された画像を得ることができる。
又、当該発明によれば、分割された領域のうち最も面積が大きい領域についてのみ画像補正を行い、画像補正された領域を知覚されやすい態様で表示するので、印刷前の段階で、どの領域に画像補正が施されるのかを明確に確認することができる。
そして、当該発明によれば、画像補正された領域と画像補正されなかった領域との境界に境界線が描かれるので、どの領域にどの程度の画像補正が施されるのかをより一層明確に確認することができる。
更に、当該発明によれば、前記画像補正された領域の色情報に基いて境界線の色が決定されるので、どの領域にどの程度の画像補正が施されるのかをより一層明確に確認することができる。
According to the second aspect of the invention, image correction can be performed sensuously based on the feature amount extracted from the image input by the image input means. In addition, image correction is performed on the display image (thumbnail image) in the image to be image-corrected based on the pre-stored feature amount, and the image that has been subjected to image correction is displayed. Thus, it is possible to clearly check how much correction is performed on which part of the image to be corrected. Then, if printing is started based on a confirmation operation by the user, it is possible to obtain an image that is sensuously subjected to desired image correction while preventing unnecessary printing processing.
Further, according to the present invention, image correction is performed only for the area having the largest area among the divided areas, and the image-corrected area is displayed in a manner that is easily perceived. It is possible to clearly confirm whether image correction is performed.
According to the invention, since a boundary line is drawn at the boundary between the image-corrected region and the non-image-corrected region, it is more clearly confirmed which image correction is applied to which region. can do.
Further, according to the present invention, since the color of the boundary line is determined based on the color information of the image corrected region, it is more clearly confirmed which image correction is applied to which region. be able to.
請求項3に係る発明によれば、画像入力手段により入力された画像から抽出した特徴量に基づき、感覚的に画像補正を行うことができる。加えて、画像補正する画像における表示用画像(サムネイル画像)に対して、予め記憶した特徴量に基いて画像補正を行い、画像補正を行った画像を表示させることにより、印刷前の段階で、画像補正の対象の画像に対し、どの部分にどの程度補正が行われるのかを明確に確認することができる。そして、利用者による確認操作に基いて印刷が開始されるようにすれば無駄な印刷処理を防止しつつ、感覚的に所望の画像補正が施された画像を得ることができる。また、色相を特定するために種々のパラメータを用いることができる。
又、当該発明によれば、分割された領域のうち最も面積が大きい領域についてのみ画像補正を行い、画像補正された領域を知覚されやすい態様で表示するので、印刷前の段階で、どの領域に画像補正が施されるのかを明確に確認することができる。
そして、当該発明によれば、画像補正されなかった領域を無彩色に変換するので、どの領域に画像補正が施されるのかをより一層明確に確認することができる。
更に、当該発明によれば、前記無彩色に変換した領域の階調を他の領域より小さくして表示するので、どの領域に画像補正が施されるのかをより一層明確に確認することができる。
According to the invention of claim 3, it is possible to perform image correction sensuously based on the feature amount extracted from the image input by the image input means. In addition, by performing image correction on the display image (thumbnail image) in the image to be image-corrected based on the pre-stored feature amount and displaying the image that has been subjected to image correction, in the stage before printing, It is possible to clearly confirm how much correction is performed on which part of the image to be corrected. Then, if printing is started based on a confirmation operation by the user, it is possible to obtain an image that is sensuously subjected to desired image correction while preventing unnecessary printing processing. Various parameters can be used to specify the hue.
Further, according to the present invention, image correction is performed only for the area having the largest area among the divided areas, and the image-corrected area is displayed in a manner that is easily perceived. It is possible to clearly confirm whether image correction is performed.
According to the invention, since the area that has not been subjected to image correction is converted to an achromatic color, it is possible to more clearly confirm which area is subjected to image correction.
Further, according to the present invention, since the gradation of the region converted to the achromatic color is displayed smaller than other regions, it can be confirmed more clearly which region is subjected to image correction. .
請求項4に係る発明によれば、画像入力手段により入力された画像から抽出した特徴量に基づき、感覚的に画像補正を行うことができる。加えて、画像補正する画像における表示用画像(サムネイル画像)に対して、予め記憶した特徴量に基いて画像補正を行い、画像補正を行った画像を表示させることにより、画像補正前の段階で、画像補正の対象の画像に対し、どの部分にどの程度補正が行われるのかを明確に確認することができる。そして、利用者による確認操作に基いて印刷が開始されるようにすれば無駄な印刷処理を防止しつつ、感覚的に所望の画像補正が施された画像を得ることができる。
又、当該発明によれば、分割された領域のうち最も面積が大きい領域についてのみ画像補正を行い、画像補正された領域を知覚されやすい態様で表示するので、印刷前の段階で、どの領域に画像補正が施されるのかを明確に確認することができる。
そして、当該発明によれば、画像補正されなかった領域を無彩色に変換するので、どの領域に画像補正が施されるのかをより一層明確に確認することができる。
更に、当該発明によれば、前記無彩色に変換した領域の階調を他の領域より小さくして表示するので、どの領域に画像補正が施されるのかをより一層明確に確認することができる。
According to the invention which concerns on Claim 4, based on the feature-value extracted from the image input by the image input means, image correction can be performed sensuously. In addition, image correction is performed on the display image (thumbnail image) in the image to be image-corrected based on the pre-stored feature amount, and the image that has been subjected to image correction is displayed. Thus, it is possible to clearly check how much correction is performed on which part of the image to be corrected. Then, if printing is started based on a confirmation operation by the user, it is possible to obtain an image that is sensuously subjected to desired image correction while preventing unnecessary printing processing.
Further, according to the present invention, image correction is performed only for the area having the largest area among the divided areas, and the image-corrected area is displayed in a manner that is easily perceived. It is possible to clearly confirm whether image correction is performed.
According to the invention, since the area that has not been subjected to image correction is converted to an achromatic color, it is possible to more clearly confirm which area is subjected to image correction.
Further, according to the present invention, since the gradation of the region converted to the achromatic color is displayed smaller than other regions, it can be confirmed more clearly which region is subjected to image correction. .
請求項5に係る発明によれば、上述した効果を奏することができる。 According to the invention which concerns on Claim 5 , there can exist the effect mentioned above.
請求項6に係る発明によれば、色相に関する特徴量と色相以外に関する特徴量とに分けて異なる画像変換処理を行うため、所望の画像補正処理を高精度に行うことができる。また、色相を特定するために種々のパラメータを用いることができる。 According to the sixth aspect of the invention, since different image conversion processing is performed separately for the feature value related to hue and the feature value related to other than hue, desired image correction processing can be performed with high accuracy. Various parameters can be used to specify the hue.
請求項7に係る発明によれば、HSV空間におけるH値に基いて色相に関する特徴量を算出することができる。 According to the invention which concerns on Claim 7 , the feature-value regarding a hue is computable based on H value in HSV space.
請求項8〜11に係る発明についても、上述した効果を奏することができる。 The inventions according to claims 8 to 11 can also achieve the effects described above.
[本発明の第1実施形態]
まず、本発明に係る画像処理装置の外観の一例について図1に示す。また、画像処理装置1の内部構成の一例について図2に示す。
[First embodiment of the present invention]
First, an example of the appearance of the image processing apparatus according to the present invention is shown in FIG. An example of the internal configuration of the image processing apparatus 1 is shown in FIG.
画像処理装置1は、多機能プリンタ等の一例であり、その上部に写真等から画像情報を読み取るためのスキャナ2を有している(なお、図1においては、スキャナはカバーされた状態である。)。スキャナによって読み取られた画像情報は、以下に示すメモリスロットより読み込まれた画像情報の色彩等を補正するための見本の情報として用いられる。なお、画像補正処理の詳細については後述する。 The image processing apparatus 1 is an example of a multi-function printer or the like, and has a scanner 2 for reading image information from a photograph or the like on the upper part (in FIG. 1, the scanner is in a covered state). .) Image information read by the scanner is used as sample information for correcting the color and the like of image information read from the memory slot shown below. Details of the image correction process will be described later.
画像処理装置1は、SDカード(商標)、CFカード(商標)などの記録媒体である外部メモリに記録された画像情報を読み取るためのICカードリーダとして機能するメモリスロット3を有する。ここで、外部メモリ(記憶媒体)は、公知の媒体及び形式を適宜選択可能である。また、複数の方式の媒体に適用するよう、複数のメモリスロットを有するように構成してもよい。また、画像情報を蓄積したPCが接続されたLAN等のネットワークに接続可能な通信機能(例えばLANカード、図示せず)を図2に示すCPU,ROM、RAMなどが接続された信号線に付加することで、前記外部メモリの代わりに、前記PCが接続されたネットワークから所望の画像情報を読み取るよう構成してもよい。その場合は、画像処理装置1は、通信機能を有することになる。 The image processing apparatus 1 has a memory slot 3 that functions as an IC card reader for reading image information recorded in an external memory that is a recording medium such as an SD card (trademark) or a CF card (trademark). Here, as the external memory (storage medium), a known medium and format can be appropriately selected. Further, it may be configured to have a plurality of memory slots so as to be applied to a plurality of types of media. In addition, a communication function (for example, a LAN card, not shown) that can be connected to a network such as a LAN to which a PC storing image information is connected is added to the signal line to which the CPU, ROM, RAM, etc. shown in FIG. 2 are connected. Thus, instead of the external memory, desired image information may be read from a network to which the PC is connected. In that case, the image processing apparatus 1 has a communication function.
画像処理装置1は、種々の操作を行うための操作パネル4を有している。操作パネル4には種々のボタン等が配置される。 The image processing apparatus 1 has an operation panel 4 for performing various operations. Various buttons and the like are arranged on the operation panel 4.
画像処理装置1は、図2に図示されるプリンタ10を有している。画像補正された画像情報は、プリンタ10によって印刷される。印刷された用紙は、例えば、排出口5より排出される。 The image processing apparatus 1 includes a printer 10 illustrated in FIG. The image information subjected to the image correction is printed by the printer 10. The printed paper is discharged from the discharge port 5, for example.
画像処理装置1は、表示手段6を有している。種々の文字情報及びイメージを表示することができる。また、表示手段6の前面に透明なタッチパネルを設け、操作パネル4の一部または全部の機能を代用してもよい。また、タッチパネルと操作パネル4を併用できるよう構成してもよい。 The image processing apparatus 1 has display means 6. Various character information and images can be displayed. Further, a transparent touch panel may be provided on the front surface of the display unit 6 and a part or all of the functions of the operation panel 4 may be substituted. Moreover, you may comprise so that a touch panel and the operation panel 4 can be used together.
画像処理装置1は、プロセッサ(CPU9)によって全体が制御される。また、内部には、情報を一時的に記憶するためのRAM7、及び、所定の情報が記憶されたROM8を有する。また、必要に応じてHDD等の大容量記憶手段を有してもよい。 The image processing apparatus 1 is entirely controlled by a processor (CPU 9). In addition, there are a RAM 7 for temporarily storing information and a ROM 8 for storing predetermined information. Moreover, you may have mass storage means, such as HDD, as needed.
上述した各要素は、信号線によって互いに接続されている。 Each element mentioned above is mutually connected by the signal wire | line.
また、画像処理装置1に、種々の機能(例えば、FAX)を画像処理装置に付加することもできる。また、パソコン等に接続するためのインタフェース、他の印刷装置と接続するためのインタフェースを備えてもよい。 Further, various functions (for example, FAX) can be added to the image processing apparatus 1. Further, an interface for connecting to a personal computer or the like and an interface for connecting to another printing apparatus may be provided.
なお、上記外観は単なる一例であり、本発明が上記外観に限定されないことはいうまでもない。また、上記外観においては、全ての機能が一体化された装置を図示したが、一部の機能を外付け装置で実現してもよい。さらに、上記内部構成は単なる一例であり、本発明が上記内部構成に限定されないことはいうまでもない。 In addition, the said external appearance is only an example, and it cannot be overemphasized that this invention is not limited to the said external appearance. Moreover, in the above-mentioned external appearance, an apparatus in which all functions are integrated is shown, but some functions may be realized by an external apparatus. Furthermore, the internal configuration is merely an example, and it goes without saying that the present invention is not limited to the internal configuration.
次に、本発明に係る画像処理装置1を用いた画像補正処理について、ユーザの動作及び装置本体の処理について、その概略を説明する。図3は、当該処理の概略を示したものである。まず、ユーザは、画像補正対象となる画像が記憶されたメモリを、画像処理装置のメモリスロットにセットする。上述したとおり、このメモリとしては、メモリカードをはじめ公知の記憶媒体を適宜採用可能である。 Next, an outline of an image correction process using the image processing apparatus 1 according to the present invention will be described with respect to a user operation and an apparatus main body process. FIG. 3 shows an outline of the processing. First, the user sets a memory in which an image to be corrected is stored in a memory slot of the image processing apparatus. As described above, as this memory, a known storage medium such as a memory card can be appropriately employed.
メモリがメモリスロット3にセットされることにより(1)、画像処理装置は、セットされたメモリを認識し、ユーザに対し、メモリに記憶されている画像のうち画像補正対象となる画像を選択させる(2)。なお、画像を選択させるための処理は、公知の技術(例えば、画像を順次切替表示して選択させる等)を適宜採用可能である。また、表示手段6を利用してもよい。 When the memory is set in the memory slot 3 (1), the image processing apparatus recognizes the set memory and causes the user to select an image to be corrected from the images stored in the memory. (2). In addition, the process for selecting an image can employ | adopt suitably a well-known technique (For example, switching and displaying an image sequentially, etc.). Further, the display means 6 may be used.
画像補正対象の画像が決定されると(3)、画像処理装置は当該画像を例えばRAMに読み込む(4)。なお、以下において当該画像を「元画像」ということがある。 When an image to be corrected is determined (3), the image processing apparatus reads the image into, for example, a RAM (4). Hereinafter, the image may be referred to as an “original image”.
次に、ユーザは当該画像の画像補正の見本となる画像(以下において、「お手本画像」ということがある。)をスキャナ上に設置(5)し、所定のボタン等を押下することによって、画像処理装置はお手本画像を例えばRAM7に読み込む(6)。 Next, the user installs (5) an image (hereinafter, also referred to as “example image”) as a sample for image correction of the image on the scanner, and presses a predetermined button or the like to The processing apparatus reads the model image into, for example, the RAM 7 (6).
次に、画像処理装置1は、表示用画像を生成し表示する(7)。表示用画像の生成については後述する。 Next, the image processing apparatus 1 generates and displays a display image (7). The generation of the display image will be described later.
ユーザは、表示用画像が所望の画像補正がなされているかを確認し、印刷を行うための指示操作を行う(8)。このとき、操作パネル4やタッチパネルが利用される。 The user confirms whether the display image has been subjected to desired image correction, and performs an instruction operation for printing (8). At this time, the operation panel 4 or the touch panel is used.
画像処理装置1は、印刷指示を受けると、画像補正処理を行う(9)。その後、画像補正された元画像を印刷する(10)。 When receiving the print instruction, the image processing apparatus 1 performs image correction processing (9). Thereafter, the original image after the image correction is printed (10).
なお、上述した図3の処理においては、メモリから画像を読み込んだ後にスキャナを利用して画像を読み込むものであるが、先にスキャナを利用してお手本画像を読み込み、その後メモリから画像を読み込むよう構成してもよい。 In the process of FIG. 3 described above, an image is read using a scanner after reading an image from a memory. However, a model image is first read using a scanner, and then an image is read from a memory. It may be configured.
次に、画像処理装置1における基本処理について説明する。図4は、本実施形態における基本処理の概要を示すフローチャートである。 Next, basic processing in the image processing apparatus 1 will be described. FIG. 4 is a flowchart showing an outline of basic processing in the present embodiment.
S11において、元画像、及び、お手本画像が画像処理装置1のRAM7に書き込まれる。ここで、読み込まれた画像の形式は限定されない。
S12において、読み込まれたお手本画像の画素をそれぞれHSVパラメータに変換する。HSVパラメータへの変換処理については後述する。
In S <b> 11, the original image and the model image are written in the RAM 7 of the image processing apparatus 1. Here, the format of the read image is not limited.
In S12, each pixel of the read model image is converted into an HSV parameter. The conversion process to the HSV parameter will be described later.
S13において、HSVパラメータに基いてお手本画像の特徴量として第1特徴量を抽出する。第1特徴量を抽出する具体的な処理については後述する。 In S13, a first feature value is extracted as a feature value of the model image based on the HSV parameter. Specific processing for extracting the first feature amount will be described later.
S14において、読み込まれた元画像のそれぞれの画素をHSVパラメータに変換する。そして、S15において、当該HSVパラメータに基いて、元画像の特徴量として、第2特徴量を抽出する。第2特徴量を抽出する具体的な処理については後述する。 In S14, each pixel of the read original image is converted into an HSV parameter. In S15, the second feature value is extracted as the feature value of the original image based on the HSV parameter. Specific processing for extracting the second feature amount will be described later.
S16において、表示用画像を生成する。表示用画像は、元画像を規定の大きさに解像度変換して生成される。ここで、規定の大きさは、例えば、表示手段6に画像全体が表示可能な大きさである。また、元画像をそのまま表示用画像として用いる場合は、S16の処理は実行されない。ここで、解像度変換方法としては、ニアレストネイバー法、バイリニア法、バイキュービック法を採用してもよい。また、解像度変換により縮小する場合は、平均画素法を採用してもよい。さらに、別の処理方法を採用してもよい。 In S16, a display image is generated. The display image is generated by converting the resolution of the original image to a specified size. Here, the specified size is, for example, a size capable of displaying the entire image on the display means 6. Further, when the original image is used as it is as a display image, the process of S16 is not executed. Here, as the resolution conversion method, a nearest neighbor method, a bilinear method, or a bicubic method may be employed. In the case of reduction by resolution conversion, the average pixel method may be employed. Furthermore, another processing method may be adopted.
S17において、表示用画像を、第1特徴量及び第2特徴量を用いて補正する。補正処理の詳細については後述する。 In S17, the display image is corrected using the first feature value and the second feature value. Details of the correction processing will be described later.
S18において、補正された表示用画像を表示手段6に表示する。このとき、補正された表示用画像の表示態様を変えてもよい。表示態様の変更処理については後述する。このとき、表示手段6には、表示用画像とその表示用画像で印刷するか否かのメッセージがあわせて表示される。ユーザは、このメッセージにしたがい、例えば、表示手段6のタッチパネルを操作することで、印刷指示または終了指示を行う。 In S18, the corrected display image is displayed on the display means 6. At this time, the display mode of the corrected display image may be changed. The display mode changing process will be described later. At this time, the display unit 6 displays a display image and a message as to whether or not to print the display image. In accordance with this message, for example, the user performs a print instruction or an end instruction by operating the touch panel of the display unit 6.
S19において、ユーザの操作による印刷指示があるかどうかを判断する。印刷指示がない場合は(S19:NO)、当該基本処理を終了する。印刷指示がある場合は(S19:YES)、S20に進む。 In S19, it is determined whether there is a print instruction by a user operation. If there is no print instruction (S19: NO), the basic process is terminated. If there is a print instruction (S19: YES), the process proceeds to S20.
S20において、第1特徴量及び第2特徴量に基いて元画像を色補正する。色補正の具体的な処理内容については後述する。 In S20, the original image is color-corrected based on the first feature value and the second feature value. Specific processing contents of color correction will be described later.
S21において、補正された元画像を印刷する。このとき、必要に応じてHSVパラメータは、他のパラメータ(例えば、RGBパラメータ)に変換される。RGBパラメータへの変換処理については後述する。なお、S20の処理は、印刷指示の確認をする前に、予め行っていてもよい。すなわち、表示用画像とともに、元画像も色補正を行いRAM7に記憶する。ユーザから印刷指示があると、RAM7に記憶されている色補正が行われた元画像を印刷する。印刷指示を受けてから、S20の処理を行うことで、画像処理装置1の処理の負荷を軽減することができる。 In S21, the corrected original image is printed. At this time, the HSV parameters are converted into other parameters (for example, RGB parameters) as necessary. The conversion process to RGB parameters will be described later. Note that the process of S20 may be performed in advance before confirming the print instruction. That is, the original image is color corrected together with the display image and stored in the RAM 7. When there is a print instruction from the user, the original image subjected to color correction stored in the RAM 7 is printed. The processing load of the image processing apparatus 1 can be reduced by performing the process of S20 after receiving the print instruction.
なお、上述した処理においては、第1特徴量を抽出した後に第2特徴量を抽出したが、第2特徴量を抽出した後に第1特徴量を抽出してもよい。また、HSVパラメータではなく、L*c*h*パラメータを抽出してもよい。また、RGBパラメータ等の公知のパラメータであっても本発明は実現可能である。なお、以下においては、HSVパラメータを抽出する場合について説明する。 In the above-described processing, the second feature amount is extracted after extracting the first feature amount. However, the first feature amount may be extracted after extracting the second feature amount. Further, L * c * h * parameters may be extracted instead of HSV parameters. Further, the present invention can be realized even with known parameters such as RGB parameters. In the following, a case where HSV parameters are extracted will be described.
次に、図4のS12におけるお手本画像の画素をHSVパラメータに変換する一例について説明する。以下においては、お手本画像及び元画像は、RGB形式であると仮定する。RGB形式からHSV形式への変換は以下のように行うことができる。また、図4のS14の処理も同様に行うことができる。なお、下記に示す変換式は一例であり、他の変換式で変換してもよいことはいうまでもない。 Next, an example of converting the model image pixels in S12 of FIG. 4 into HSV parameters will be described. In the following, it is assumed that the model image and the original image are in the RGB format. Conversion from the RGB format to the HSV format can be performed as follows. Moreover, the process of S14 of FIG. 4 can be performed similarly. In addition, the conversion formula shown below is an example, and it cannot be overemphasized that you may convert with another conversion formula.
[RGB⇒HSV変換式]
max(a,b,c)はa,b,cの中で最も大きい値を表す。
min(a,b,c)はa,b,cの中で最も小さい値を表す。
V = max(R÷255,G÷255,B÷255)
Vが0でない時、
S = {V - min(R,G,B)} ÷ V
Vが0の時、
S = 0
{V - min(R,G,B)}が0でない時、
r = (V - R÷255)÷(V-min(R,G,B)
g = (V - G÷255)÷(V-min(R,G,B)
b = (V - B÷255)÷(V-min(R,G,B)
{V - min(R,G,B)}が0の時、
r = 0
g = 0
b = 0
V = R÷255の時
H = 60 × (b-g)
V = G÷255の時
H = 60 × (2+r-g)
V = B÷255の時
H = 60 × (4+g-r)
ただしH<0の時
H = H+360
[RGB → HSV conversion formula]
max (a, b, c) represents the largest value among a, b, and c.
min (a, b, c) represents the smallest value among a, b, and c.
V = max (R ÷ 255, G ÷ 255, B ÷ 255)
When V is not 0
S = {V-min (R, G, B)} ÷ V
When V is 0
S = 0
When {V-min (R, G, B)} is not 0,
r = (V-R ÷ 255) ÷ (V-min (R, G, B)
g = (V-G ÷ 255) ÷ (V-min (R, G, B)
b = (V-B ÷ 255) ÷ (V-min (R, G, B)
When {V-min (R, G, B)} is 0,
r = 0
g = 0
b = 0
When V = R ÷ 255
H = 60 × (bg)
When V = G ÷ 255
H = 60 × (2 + rg)
When V = B ÷ 255
H = 60 × (4 + gr)
However, when H <0
H = H + 360
次に、S13の第1特徴量を抽出するための処理について図5を参照しつつ説明する。図5は、第1特徴量抽出処理のフローチャートである。なお、以下の処理においては、H値は、−30〜330未満の値をとるものとする。H値が上記範囲内でない場合は、H値を適宜変換することにより(例えば、“H値+360×n”もしくは“H値−360×n”、nは整数)、上記範囲の値をとるよう調整する。 Next, the process for extracting the first feature amount in S13 will be described with reference to FIG. FIG. 5 is a flowchart of the first feature amount extraction process. In the following processing, the H value takes a value of −30 to less than 330. If the H value is not within the above range, the H value is appropriately converted (for example, “H value + 360 × n” or “H value−360 × n”, where n is an integer), so that the value in the above range is taken. adjust.
S31において、お手本画像の複数の領域に分割する。ここでは、一般的に用いられる6つの色相に基いて分割する。具体的には、それぞれの画素のH値に基き、
・R領域: −30以上〜30未満
・Y領域: 30以上〜90未満
・G領域: 90以上〜150未満
・C領域: 150以上〜210未満
・B領域: 210以上〜270未満
・M領域: 270以上〜330未満
に分割する。つまり、お手本画像の構成画素をその色相値に応じた上記分類基準に従い、6つの分類項目に分類する処理を行う。ここで、上記領域とH値の対応関係は、一例であり、適宜変更可能なものである。
In S31, the sample image is divided into a plurality of regions. Here, the image is divided based on six commonly used hues. Specifically, based on the H value of each pixel,
-R region: -30 or more and less than 30-Y region: 30 or more and less than 90-G region: 90 or more and less than 150-C region: 150 or more and less than 210-B region: 210 or more and less than 270-M region: Divide into 270 or more and less than 330. That is, a process of classifying the constituent pixels of the model image into six classification items according to the classification standard corresponding to the hue value is performed. Here, the correspondence relationship between the region and the H value is an example and can be changed as appropriate.
S32において、S31で分割した領域ごとに、「各領域の代表値(HSV値)」及び「各領域がお手本画像中に占める割合」を算出する。ここで、各領域の代表値(HSV値)を、以下のように定義する。
・R領域の代表値:sHr,sSr,sVr
・G領域の代表値:sHg,sSg,sVg
・B領域の代表値:sHb,sSb,sVb
・C領域の代表値:sHc,sSc,sVc
・M領域の代表値:sHm,sSm,sVm
・Y領域の代表値:sHy,sSy,sSy
In S32, “representative value (HSV value) of each region” and “ratio of each region in the model image” are calculated for each region divided in S31. Here, the representative value (HSV value) of each region is defined as follows.
-Typical values of R region: sHr, sSr, sVr
-Typical values in the G region: sHg, sSg, sVg
-Typical values of the B region: sHb, sSb, sVb
-Typical value of C region: sHc, sSc, sVc
-Typical values in the M region: sHm, sSm, sVm
-Typical values of the Y region: sHy, sSy, sSy
ここで、代表値は、各領域におけるHSV値それぞれの平均値とすることができる。また、中間値を用いることができる。 Here, the representative value can be an average value of each HSV value in each region. Moreover, an intermediate value can be used.
また、各領域がお手本画像中に占める割合を、以下のように定義する。
・R領域がお手本画像中に占める割合:sRateR
・G領域がお手本画像中に占める割合:sRateG
・B領域がお手本画像中に占める割合:sRateB
・C領域がお手本画像中に占める割合:sRateC
・M領域がお手本画像中に占める割合:sRateM
・Y領域がお手本画像中に占める割合:sRateY
Further, the ratio of each area in the model image is defined as follows.
The ratio of the R region in the model image: sRateR
-Ratio of the G area in the model image: sRateG
-Ratio of area B in the model image: sRateB
-Ratio of the C area in the model image: sRateC
-Ratio of M area in the model image: sRateM
The ratio of the Y area in the model image: sRateY
ここで、上記割合は、例えばR領域については、
sRateR=(お手本画像中のR領域の画素数)÷(お手本画像の全画素数)として定義することができるが、他の式によって定義してもよい。
Here, the ratio is, for example, for the R region,
Although it can be defined as sRateR = (number of pixels in the R region in the model image) / (total number of pixels in the model image), it may be defined by another formula.
次に、図4のS15の第2特徴量を抽出するための処理について図6を参照しつつ説明する。図6は、第2特徴量抽出処理のフローチャートである。 Next, the process for extracting the second feature value in S15 of FIG. 4 will be described with reference to FIG. FIG. 6 is a flowchart of the second feature amount extraction process.
S41において、元画像を6つの領域に分割する。処理の内容は、お手本画像に対する処理と同じなので、説明を省略する。 In S41, the original image is divided into six regions. Since the content of the process is the same as the process for the model image, the description is omitted.
S42において、元画像に対し、図5のS32と同様の処理を行う。また、各領域の代表値(HSV値)を、以下のように定義する。
・R領域の代表値:iHr,iSr,iVr
・G領域の代表値:iHg,iSg,iVg
・B領域の代表値:iHb,iSb,iVb
・C領域の代表値:iHc,iSc,iVc
・M領域の代表値:iHm,iSm,iVm
・Y領域の代表値:iHy,iSy,iSy
In S42, the same process as S32 in FIG. 5 is performed on the original image. Further, the representative value (HSV value) of each region is defined as follows.
・ Representative value of R region: iHr, iSr, iVr
・ Representative value of G region: iHg, iSg, iVg
・ Representative value of B area: iHb, iSb, iVb
-Typical value of C region: iHc, iSc, iVc
-Typical values in the M region: iHm, iSm, iVm
・ Representative value of Y area: iHy, iSy, iSy
各領域が元画像中に占める割合を、以下のように定義する。
・R領域が元画像中に占める割合:iRateR
・G領域が元画像中に占める割合:iRateG
・B領域が元画像中に占める割合:iRateB
・C領域が元画像中に占める割合:iRateC
・M領域が元画像中に占める割合:iRateM
・Y領域が元画像中に占める割合:iRateY
The proportion of each area in the original image is defined as follows.
-Ratio of R area in original image: iRateR
-Ratio of the G area in the original image: iRateG
-Ratio of B area in original image: iRateB
-Ratio of the C area in the original image: iRateC
-Ratio of M area in original image: iRateM
The ratio of the Y area in the original image: iRateY
なお、上述した処理においては、第1特徴量を抽出するアルゴリズムと第2特徴量を抽出するアルゴリズムとが同一のものとして説明したが、異なるアルゴリズムによって、それぞれの特徴量を抽出するよう構成してもよい。 In the above-described processing, the algorithm for extracting the first feature quantity and the algorithm for extracting the second feature quantity have been described as being the same. However, each feature quantity is configured to be extracted by a different algorithm. Also good.
次に、図4のS17において実行される、第1特徴量及び第2特徴量に基いて表示用画像を変換する処理について詳細を説明する。この処理は、表示用画像の各画素のH値、S値、V値をそれぞれ変換することによって行われる。 Next, details of the process of converting the display image based on the first feature value and the second feature value, which are executed in S17 of FIG. 4, will be described. This process is performed by converting the H value, S value, and V value of each pixel of the display image.
まず、H値における変換処理について説明する。元画像のH値の代表値をX軸にとり、お手本画像のH値の代表値をY軸にとって領域ごとのH値の代表値をプロットする。そしてプロットされた点の間を、例えば、線形補間することにより、図7に示す色相補正テーブルを作成する。ここで、H’>360の場合は、H’=H’−360とする。 First, the conversion process for the H value will be described. The representative value of the H value of the original image is plotted on the X axis and the representative value of the H value of the model image is plotted on the Y axis, and the representative value of the H value for each region is plotted. Then, a hue correction table shown in FIG. 7 is created by linear interpolation between the plotted points, for example. Here, when H ′> 360, H ′ = H′-360.
そして、表示用画像のぞれぞれの画素のH値に対し、上記色相補正テーブルを適用することによって、H値が補正される。より具体的には、補正後のH’は、以下の式で定義することができる。 Then, the H value is corrected by applying the hue correction table to the H value of each pixel of the display image. More specifically, the corrected H ′ can be defined by the following equation.
H’=(y2-y1)/(x2-x1)×H - (y2-y1)/(x2-x1)×x2 + y2
・・・(式1)
ここで、x1,x2,y1,y2は、以下のように定義される。
H ′ = (y2−y1) / (x2−x1) × H− (y2−y1) / (x2−x1) × x2 + y2
... (Formula 1)
Here, x1, x2, y1, and y2 are defined as follows.
H<iHrのときは、
(x1,y1)= (iHm−360,sHm−360)
(x2,y2)= (iHr,sHr)
When H <iHr,
(X1, y1) = (iHm-360, sHm-360)
(X2, y2) = (iHr, sHr)
iHr≦H<iHyのときは、
(x1,y1)= (iHr,sHr)
(x2,y2)= (iHy,sHy)
When iHr ≦ H <iHy,
(X1, y1) = (iHr, sHr)
(X2, y2) = (iHy, sHy)
iHy≦H<iHgのときは、
(x1,y1)= (iHy,sHy)
(x2,y2)= (iHg,sHg)
When iHy ≦ H <iHg,
(X1, y1) = (iHy, sHy)
(X2, y2) = (iHg, sHg)
iHg≦H<iHcのときは、
(x1,y1)= (iHg,sHg)
(x2,y2)= (iHc,sHc)
When iHg ≦ H <iHc,
(X1, y1) = (iHg, sHg)
(X2, y2) = (iHc, sHc)
iHc≦H<iHbのときは、
(x1,y1)= (iHc,sHc)
(x2,y2)= (iHb,sHb)
When iHc ≦ H <iHb,
(X1, y1) = (iHc, sHc)
(X2, y2) = (iHb, sHb)
iHb≦H<iHmのときは、
(x1,y1)= (iHb,sHb)
(x2,y2)= (iHm,sHm)
When iHb ≦ H <iHm,
(X1, y1) = (iHb, sHb)
(X2, y2) = (iHm, sHm)
iHm≦Hのときは、
(x1,y1)= (iHm,sHm)
(x2,y2)= (iHr+360,sHr+360)
When iHm ≦ H,
(X1, y1) = (iHm, sHm)
(X2, y2) = (iHr + 360, sHr + 360)
次に、表示用画像の各画素のS値及びV値における変換について説明する。S値及びY値は、H値によって分割された領域ごとに値が変換される。例えば、R領域について、
S ≦ iSrのときは、
S’=S×(sSr÷iSr) ・・・(式2)
S > iSrのときは、
S’=1+(S−1)×{(1−sSr)÷(1−iSr)} ・・・(式3)
V ≦ iVrのときは、
V’=V×(sVr÷iVr) ・・・(式4)
V > iVrのときは、
V’=1+(V−1)×{(1−sVr)÷(1−iVr)} ・・・(式5)
の式で求めることができる。また、その他の領域の計算についても同様に算出することができる。なお、以下においては、上記S値の変換式で定義される変換テーブルを彩度補正テーブルということがあり、また、上記V値の変換式で定義される変換テーブルを明度補正テーブルということがある。
また、S20における元画像の変換についても同様に処理される。
Next, conversion in the S value and V value of each pixel of the display image will be described. The S value and the Y value are converted for each area divided by the H value. For example, for the R region:
When S ≦ iSr,
S ′ = S × (sSr ÷ iSr) (Formula 2)
When S> iSr,
S ′ = 1 + (S−1) × {(1-sSr) ÷ (1-iSr)} (Formula 3)
When V ≦ iVr,
V ′ = V × (sVr ÷ iVr) (Formula 4)
When V> iVr,
V ′ = 1 + (V−1) × {(1−sVr) ÷ (1−iVr)} (Formula 5)
It can be calculated by the following formula. Further, other areas can be similarly calculated. In the following, the conversion table defined by the S value conversion formula may be referred to as a saturation correction table, and the conversion table defined by the V value conversion formula may be referred to as a brightness correction table. .
The same processing is performed for the conversion of the original image in S20.
次に、図4のS21において、プリンタ10に適するフォーマット(例えば、RGB値)に変換するための変換式について説明する。なお、下記に示す変換式は一例であり、他の変換式で変換してもよいことはいうまでもない。 Next, a conversion formula for converting into a format (for example, RGB value) suitable for the printer 10 in S21 of FIG. 4 will be described. In addition, the conversion formula shown below is an example, and it cannot be overemphasized that you may convert with another conversion formula.
[HSV⇒RGB変換式]
(以下で示すin, fl, m, nは、HSVからRGBを算出する過程で利用する媒介変数で
ある)
in を (H/60)の整数部分、fl を (H/60)の小数部分とする。
in が偶数の場合
fl = 1-fl
m = V × (1-S)
n = V × (1-S×fl)
inが0の時
R = V × 255
G = n × 255
B = m × 255
inが1の時
R = n × 255
G = V × 255
B = m × 255
inが2の時
R = m × 255
G = V × 255
B = n × 255
inが3の時
R = m × 255
G = n × 255
B = V × 255
inが4の時
R = n × 255
G = m × 255
B = V × 255
inが5の時
R = V × 255
G = m × 255
B = n × 255
[HSV-> RGB conversion formula]
(In, fl, m, and n shown below are parameters used in the process of calculating RGB from HSV)
Let in be the integer part of (H / 60) and fl be the decimal part of (H / 60).
If in is an even number
fl = 1-fl
m = V × (1-S)
n = V × (1-S × fl)
When in is 0
R = V × 255
G = n × 255
B = m × 255
When in is 1
R = n × 255
G = V × 255
B = m × 255
When in is 2
R = m × 255
G = V × 255
B = n × 255
When in is 3
R = m × 255
G = n × 255
B = V × 255
When in is 4
R = n × 255
G = m × 255
B = V × 255
When in is 5
R = V × 255
G = m × 255
B = n × 255
本発明の第1実施形態によれば、印刷前の段階で補正結果を確認することができる。また、上述したとおり、表示用画像が比較的小さい場合は、表示用画像に対する色補正処理を高速に行うことができる。また、上述した画像補正処理を行うことによって、H値に基いて分割された領域ごとに、元画像の色合いをお手本画像の色合いに補正することができる。 According to the first embodiment of the present invention, the correction result can be confirmed at a stage before printing. Further, as described above, when the display image is relatively small, the color correction process for the display image can be performed at high speed. In addition, by performing the above-described image correction processing, it is possible to correct the hue of the original image to the hue of the model image for each region divided based on the H value.
[画像補正処理の第2実施形態]
以下に説明する画像補正処理の第2実施形態においては、分割されたそれぞれの領域に対し、領域の大きさに基いて画像補正処理の一部を停止、また、変化量を制御することができる。これにより、利用者がお手本画像の一部の色合いのみを元画像の色合いに反映させることができる。
[Second Embodiment of Image Correction Processing]
In the second embodiment of the image correction process described below, for each divided area, a part of the image correction process can be stopped and the amount of change can be controlled based on the size of the area. . Thereby, the user can reflect only a part of the hue of the model image in the hue of the original image.
本実施形態の基本処理のフローチャートを図8に示す。本実施形態の基本的な処理の流れは図4と同じであるが、第2特徴量抽出処理の後に、代表値再設定処理(S56)が追加される。以下、代表値再設定処理について、図を参照しつつ説明する。 FIG. 8 shows a flowchart of basic processing of this embodiment. The basic processing flow of this embodiment is the same as that in FIG. 4, but a representative value resetting process (S56) is added after the second feature amount extraction process. Hereinafter, the representative value resetting process will be described with reference to the drawings.
図9は、本実施形態における代表値再設定処理のフローチャートである。S71において、分割された領域が補正対象か否かを判別される。この処理では、当該領域が所定の条件を満たすか否かが判断される。 FIG. 9 is a flowchart of the representative value resetting process in the present embodiment. In S71, it is determined whether or not the divided area is a correction target. In this process, it is determined whether or not the area satisfies a predetermined condition.
補正対象であると判断された場合(S71:YES)は、S73に進む。補正対象でないと判断された場合(S71:NO)は、S72に進む。S72では、代表値が再設定し、その後S73に進む。代表値の再設定の方法は後述する。 When it is determined that it is a correction target (S71: YES), the process proceeds to S73. When it is determined that it is not a correction target (S71: NO), the process proceeds to S72. In S72, the representative value is reset, and then the process proceeds to S73. A method of resetting the representative value will be described later.
S73においては、全ての領域(6分割した場合は6つの領域)について、補正対象か否かが判断されたか否かを判別する。判別していない領域が残っている場合(S73:NO)は、S71に戻り処理を繰り返す。全ての領域についての判断が終了すると(S73:YES)、代表値再設定処理を終了する。 In S73, it is determined whether or not all the regions (six regions when divided into six) are determined as correction targets. If an unidentified area remains (S73: NO), the process returns to S71 and is repeated. When the determination for all the areas is completed (S73: YES), the representative value resetting process is terminated.
[閾値Threを用いる方法]
上述した所定の条件として、分割された領域の大きさと閾値Threとの大小関係を用いることができる。元画像、または、お手本画像に占める割合が閾値Threより小さい場合に、その領域に係る元画像及びお手本画像の代表値を同じ値に変更し、当該変更された代表値を用いて上述した画素ごとの補正処理を行う。以下、この処理について説明する。代表値を以下のように再設定することができる。
[Method using threshold Thre]
As the predetermined condition described above, the magnitude relationship between the size of the divided area and the threshold value Thre can be used. When the ratio of the original image or the model image is smaller than the threshold value Thre, the representative value of the original image and the model image related to the region is changed to the same value, and the above-described changed representative value is used for each pixel described above. The correction process is performed. Hereinafter, this process will be described. The representative value can be reset as follows.
sRateR<Thre または iRateR<Thre のときは、
sHr=0,sSr=0.5,sVr=0.5,
iHr=0,iSr=0.5,iVr=0.5
When sRateR <Thre or iRateR <Thre,
sHr = 0, sSr = 0.5, sVr = 0.5,
iHr = 0, iSr = 0.5, iVr = 0.5
sRateG<Thre または iRateG<Thre のときは、
sHg=120,sSg=0.5,sVg=0.5,
iHg=120,iSg=0.5,iVg=0.5
When sRateG <Thre or iRateG <Thre,
sHg = 120, sSg = 0.5, sVg = 0.5,
iHg = 120, iSg = 0.5, iVg = 0.5
sRateB<Thre または iRateB<Thre のときは、
sHb=240,sSb=0.5,sVb=0.5,
iHb=240,iSb=0.5,iVb=0.5
When sRateB <Thre or iRateB <Thre,
sHb = 240, sSb = 0.5, sVb = 0.5,
iHb = 240, iSb = 0.5, iVb = 0.5
sRateC<Thre または iRateC<Thre のときは、
sHc=180,sSc=0.5,sVc=0.5,
iHc=180,iSc=0.5,iVc=0.5
When sRateC <Thre or iRateC <Thre,
sHc = 180, sSc = 0.5, sVc = 0.5,
iHc = 180, iSc = 0.5, iVc = 0.5
sRateM<Thre または iRateM<Thre のときは、
sHm=300,sSm=0.5,sVm=0.5,
iHm=300,iSm=0.5,iVm=0.5
When sRateM <Thre or iRateM <Thre,
sHm = 300, sSm = 0.5, sVm = 0.5,
iHm = 300, iSm = 0.5, iVm = 0.5
sRateY<Thre または iRateY<Thre のときは、
sHy=60,sSy=0.5,sVy=0.5,
iHy=60,iSy=0.5,iVy=0.5
When sRateY <Thre or iRateY <Thre,
sHy = 60, sSy = 0.5, sVy = 0.5,
iHy = 60, iSy = 0.5, iVy = 0.5
上述した例においては、S値及びV値については、そのとり得る値(0〜1)の中間値である0.5を採用した。また、H値においては、それぞれの領域の中間値を採用した。しかしながら、上述した代表値は一例であり、本発明は上記数値に限定されるものではない。 In the above-described example, as the S value and the V value, 0.5, which is an intermediate value between possible values (0 to 1), is employed. Moreover, the intermediate value of each area | region was employ | adopted about H value. However, the representative values described above are examples, and the present invention is not limited to the above numerical values.
この値を利用して、画素ごとの補正を上述した変換式(式2)〜(式5)を用いることにより、S値及びV値においては値が変更されない。すなわち、例えばR領域に関して、S ≦ iSrのときは、上述した(式2)のとおり、 By using this value and using the conversion formulas (Formula 2) to (Formula 5) described above for the correction for each pixel, the values are not changed in the S value and the V value. That is, for example, with respect to the R region, when S ≦ iSr, as described above (Formula 2),
S’=S×(sSr÷iSr) S ′ = S × (sSr ÷ iSr)
の式で算出されるが、当該式において、sSr=0.5,iSr=0.5となるので、上述した式は、 In this formula, sSr = 0.5 and iSr = 0.5, so the above formula is
S’=S×(0.5÷0.5)=S ・・・(式6)
となる。S>iSrのときも同様にS’=Sとなる。また、 V値、及び、他の領域につ
いても同様に変換されない。
S ′ = S × (0.5 ÷ 0.5) = S (Expression 6)
It becomes. Similarly, when S> iSr, S ′ = S. Similarly, the V value and other regions are not converted.
また、H値においては、図7においてプロットされる点が代表値に変更されるので、その領域における変換量を小さくすることができる。すなわち、上述した変更式(式1)を利用した場合であっても、代表値を変更させることによって変換量が小さくなる。 Further, in the H value, the point plotted in FIG. 7 is changed to the representative value, so that the conversion amount in that region can be reduced. That is, even when the above-described changing formula (Formula 1) is used, the conversion amount is reduced by changing the representative value.
次に、閾値Threの決定方法について説明する。この値は、官能評価に基いて決定することができる。官能評価では、約6%以上の面積を占めていれば、その領域は知覚されやすいことを確認した。したがって、閾値Threとして、6%を採用することができる。ただし、本願発明は、閾値Threとして6%のものに限定されない。 Next, a method for determining the threshold value Thre will be described. This value can be determined based on sensory evaluation. In sensory evaluation, it was confirmed that if the area occupied about 6% or more, the area was easily perceived. Therefore, 6% can be adopted as the threshold Thre. However, the present invention is not limited to the threshold Thre of 6%.
また、他の領域に対して相対的に面積が大きい領域を抽出するよう閾値Threを決定してもよい。例えば、分割される領域の数が6であれば、その逆数である1/6を閾値Threとすることもできる。 Further, the threshold Thre may be determined so as to extract a region having a relatively large area relative to other regions. For example, if the number of areas to be divided is 6, 1/6, which is the reciprocal thereof, can be set as the threshold value Thre.
本発明の一例として挙げた分割領域数である「6」は、色彩を表現する色域の1つであるRGB空間(頂点数8)から、無彩色である白と黒とを除いた頂点の数「6」と同じである。人が色彩を識別するには、色領域の数として6であれば充分であり、6より少なくすると、利用者がお手本画像のように変換されていないと感じる恐れがある。また6より細かく分割すれば、より変換精度は高くなる。しかしながら、人には識別できなくなる可能性が高くなり、また、分割数の増加に伴い計算量も増える。プリンタを用いる場合、印刷結果として補正対象の画像を得るまでの時間が遅くなり、利用者の不満も増加する可能性も高くなるので、分割される領域の数は6が好ましいと考えられる。 “6”, which is the number of divided areas given as an example of the present invention, is an RGB space (number of vertices: 8) that is one of the color gamuts expressing colors, and is the vertex excluding white and black that are achromatic colors. It is the same as the number “6”. In order for a person to identify a color, the number of color areas is sufficient to be 6, and if it is less than 6, the user may feel that the image has not been converted like a model image. If the data is divided more finely than 6, the conversion accuracy becomes higher. However, there is a high possibility that the person cannot be identified, and the amount of calculation increases as the number of divisions increases. In the case of using a printer, the time until obtaining an image to be corrected as a printing result is delayed, and there is a high possibility that user dissatisfaction will increase, so it is considered that the number of divided areas is preferably 6.
なお、上述した例においては、すべての領域において閾値を同一のものとしたが、領域ごとに閾値Threを変更するよう構成してもよい。 In the example described above, the threshold value is the same in all the regions, but the threshold value Thre may be changed for each region.
[最大領域の情報を用いる方法]
上述した手法では、閾値Threを設定し、当該閾値Threに基いて代表値の変更、すなわち、画像補正処理の停止、変換量の減少の制御を行った。ここで、お手本画像の特定の色のみについて元画像に反映させるために、画像中の最大領域の情報を用いる画像補正処理について以下説明する。
[Method using information of maximum area]
In the above-described method, the threshold Thre is set, and the representative value is changed based on the threshold Thre, that is, the image correction processing is stopped and the conversion amount is reduced. Here, an image correction process using information on the maximum area in the image in order to reflect only a specific color of the model image in the original image will be described below.
この場合、図9中のS71において、元画像及びお手本画像のいずれにおいても最も面積が大きい領域であるか否かを所定の条件とすることができる。この場合は、以下の式によって代表値が再設定される。ここで、分割されたお手本画像の領域のうちお手本画像に占める割合が最も大きい領域の割合を、iMaxRateとする。また、分割された元画像の領域のうち元画像に占める割合が最も大きい領域の割合を、sMaxRateとする。 In this case, in S71 in FIG. 9, whether or not the area is the largest in both the original image and the model image can be set as a predetermined condition. In this case, the representative value is reset by the following formula. Here, the ratio of the divided area of the model image that has the largest ratio to the model image is iMaxRate. Further, the ratio of the divided area of the original image that has the largest ratio to the original image is sMaxRate.
sRateR≠iMaxRateまたはiRateR≠sMaxRateのとき、
sHr=0,sSr=0.5,sVr=0.5,
iHr=0,iSr=0.5,iVr=0.5
When sRateR ≠ iMaxRate or iRateR ≠ sMaxRate,
sHr = 0, sSr = 0.5, sVr = 0.5,
iHr = 0, iSr = 0.5, iVr = 0.5
sRateG≠iMaxRateまたはiRateG≠sMaxRateのとき、
sHg=120,sSg=0.5,sVg=0.5,
iHg=120,iSg=0.5,iVg=0.5
When sRateG ≠ iMaxRate or iRateG ≠ sMaxRate,
sHg = 120, sSg = 0.5, sVg = 0.5,
iHg = 120, iSg = 0.5, iVg = 0.5
sRateB≠iMaxRateまたはiRateB≠sMaxRateのとき、
sHb=240,sSb=0.5,sVb=0.5,
iHb=240,iSb=0.5,iVb=0.5
When sRateB ≠ iMaxRate or iRateB ≠ sMaxRate,
sHb = 240, sSb = 0.5, sVb = 0.5,
iHb = 240, iSb = 0.5, iVb = 0.5
sRateC≠iMaxRateまたはiRateC≠sMaxRateのとき、
sHc=180,sSc=0.5,sVc=0.5,
iHc=180,iSc=0.5,iVc=0.5
When sRateC ≠ iMaxRate or iRateC ≠ sMaxRate,
sHc = 180, sSc = 0.5, sVc = 0.5,
iHc = 180, iSc = 0.5, iVc = 0.5
sRateM≠iMaxRateまたはiRateM≠sMaxRateのとき、
sHm=300,sSm=0.5,sVm=0.5,
iHm=300,iSm=0.5,iVm=0.5
When sRateM ≠ iMaxRate or iRateM ≠ sMaxRate,
sHm = 300, sSm = 0.5, sVm = 0.5,
iHm = 300, iSm = 0.5, iVm = 0.5
sRateY≠iMaxRateまたはiRateY≠sMaxRateのとき、
sHy=60,sSy=0.5,sVy=0.5,
iHy=60,iSy=0.5,iVy=0.5
When sRateY ≠ iMaxRate or iRateY ≠ sMaxRate,
sHy = 60, sSy = 0.5, sVy = 0.5,
iHy = 60, iSy = 0.5, iVy = 0.5
これにより、元画像及びお手本画像のいずれにおいても最も面積が大きい領域のみが変換対象となるから、変換対象とならなかったS値及びV値については変換が行われず、また、H値については変換量を減少させることができる。 As a result, since only the region having the largest area in both the original image and the model image is to be converted, the conversion is not performed for the S value and the V value that are not the conversion target, and the H value is converted. The amount can be reduced.
ここで、B領域のみを補正対象とした場合、図10に示すような色相補正テーブルが作成されることになる。この色相補正テーブルにおいては、色空間上B領域に隣接するC領域におけるH値の代表値(iHc=180,sHc=180)とB領域におけるH値の代表値(iHb,sHb)とが直線で結ばれ、また、色空間上B領域に隣接するM領域におけるH値の代表値(iHm=300,sHm=300)とB領域におけるH値の代表値(iHb,sHb)とが直線で結ばれることになる。 Here, when only the region B is to be corrected, a hue correction table as shown in FIG. 10 is created. In this hue correction table, the H value representative value (iHc = 180, sHc = 180) in the C region adjacent to the B region in the color space and the H value representative value (iHb, sHb) in the B region are linear. In addition, the representative value of the H value (iHm = 300, sHm = 300) in the M region adjacent to the B region in the color space and the representative value of the H value in the B region (iHb, sHb) are connected by a straight line. It will be.
このため、H値が180<H≦210のC領域、及びH値が270<H≦300のM領域についても、補正されることになる。この補正量は、B領域に近い値ほど大きくなる。 For this reason, the C region where the H value is 180 <H ≦ 210 and the M region where the H value is 270 <H ≦ 300 are also corrected. The amount of correction increases as the value approaches the B region.
上記のとおり、画像補正処理の第2実施形態においては、補正対象の領域を選択可能であり、また、補正対象ではない領域であっても、色空間上隣接するH値については一部補正されることになるから、補正対象の領域の補正対象ではない領域との間に擬似輪郭(階調とび)が生成されることを防ぐことができる。
[画像補正処理の第3実施形態]
上記画像補正処理の第2実施形態においては、変換対象としない領域のH値は、変換量が減少させることはできるものの、変換量をゼロとすることはできない。図10に示すように、変換対象としない領域の代表値との線形補間されるため、他の領域の代表値の影響を受けるからである。
As described above, in the second embodiment of the image correction process, a correction target region can be selected, and even in a region that is not a correction target, H values adjacent in the color space are partially corrected. Therefore, it is possible to prevent a pseudo contour (tone jump) from being generated between the correction target area and the non-correction area.
[Third Embodiment of Image Correction Processing]
In the second embodiment of the image correction process, although the conversion amount can be reduced, the conversion amount of the H value of the region not to be converted cannot be set to zero. This is because, as shown in FIG. 10, linear interpolation is performed with the representative values of the areas that are not to be converted, and therefore, it is affected by the representative values of other areas.
そこで、図11に示すような色相補正テーブルを採用することができる。図11は、B領域のみを変換対象とした場合の色相補正テーブルである。この図においては、変換対象の領域の数は1つであるが、複数の領域を補正対象とした場合であってもよい。 Therefore, a hue correction table as shown in FIG. 11 can be employed. FIG. 11 is a hue correction table in the case where only the B region is to be converted. In this figure, the number of areas to be converted is one, but a plurality of areas may be targeted for correction.
図11においては、B領域以外のH値は、H’=Hであるから、画像補正は行われない。B領域のH’値については、B領域中の最小値をHmin,B領域中の最大値をHmaxとすれば、以下の式で求めることができる。 In FIG. 11, since the H values other than the B region are H ′ = H, image correction is not performed. The H ′ value in the B region can be obtained by the following equation, where the minimum value in the B region is Hmin and the maximum value in the B region is Hmax.
H<iHのときは、
H’=Hmin+(sHb−Hmin)×(H−Hmin)÷(iHb−Hmin)
When H <iH,
H ′ = Hmin + (sHb−Hmin) × (H−Hmin) ÷ (iHb−Hmin)
H>iHのときは、
H’=sHb+(Hmax−sHb)×(H−iHb)÷(Hmax−iHb)
When H> iH,
H ′ = sHb + (Hmax−sHb) × (H−iHb) ÷ (Hmax−iHb)
この式を用いることにより、変換対象の領域のみを変換することができる。 By using this equation, only the region to be converted can be converted.
上述したとおり、画像補正処理の第3実施形態においては、変換対象のH値のみを変換することができるから、画像補正の効果を大きくすることができる。 As described above, in the third embodiment of the image correction process, since only the H value to be converted can be converted, the effect of image correction can be increased.
[画像補正処理の第4実施形態]
上記画像補正処理の第2実施形態においては、S値及びV値に対し、領域ごとに補正カーブ(変換式)を独立して用いるため、擬似輪郭(階調とび)が生成されるおそれがある。すなわち、図12に示すように、領域ごとに、SとS’との関係を示すテーブルを有しており、隣接する領域におけるテーブルの性質を何ら考慮していない。
[Fourth Embodiment of Image Correction Processing]
In the second embodiment of the image correction process, since a correction curve (conversion formula) is independently used for each region with respect to the S value and the V value, a pseudo contour (tone jump) may be generated. . That is, as shown in FIG. 12, each region has a table indicating the relationship between S and S ′, and no consideration is given to the nature of the table in adjacent regions.
本実施形態においては、図13に示すように、各色領域における補正カーブを滑らかにすることで階調とびを防止できる。 In the present embodiment, as shown in FIG. 13, gradation jumps can be prevented by smoothing the correction curve in each color region.
本実施形態の具体的な処理について以下に説明する。図14及び図15を参照しつつB領域の一部の画像補正処理について説明を行うが、他の領域についても処理の内容は基本的には同じである。
本実施形態における補正されたS値(Sb’’)は、
− 変換対象領域のH値(H)、
− 変換対象とする領域のH値の代表値(Hbmid)、
− 変換対象となる画素のH値の色相座標位置に近い側の隣接領域(この場合は、C領
域)にH値の代表値(Hcmid)、
− 上記式(2)に対応する変換式で変換された(すなわち、B領域の彩度補正テーブ
ルを用いて算出された)変換対象領域のS値(Sb’、Hbmidに対応するもの)、
− 上記式(3)に対応する変換式で変換された(すなわち、C領域の彩度補正テーブ
ルを用いて算出された)隣接する領域のS値(Sc’、Hcidに対応するもの)、
を用いて、以下の式で求めることができる。
Specific processing of this embodiment will be described below. The image correction process for a part of the area B will be described with reference to FIGS. 14 and 15, but the contents of the process are basically the same for the other areas.
The corrected S value (Sb ″) in this embodiment is
-H value (H) of the conversion target area,
-H value representative value (Hbmid) of the area to be converted,
A representative value (Hcmid) of the H value in the adjacent region (in this case, the C region) closer to the hue coordinate position of the H value of the pixel to be converted;
-S value (corresponding to Sb ', Hbmid) of the conversion target area converted by the conversion formula corresponding to the above formula (2) (that is, calculated using the saturation correction table of the B area),
-S value of the adjacent area (which corresponds to Sc ', Hcid) converted by the conversion formula corresponding to the above formula (3) (that is, calculated using the saturation correction table of the C area),
Can be obtained by the following equation.
Sb’’ = {(H−Hcmid)×Sb’+(Hbmid−H)×Sc’}/
{(Hbmid−Hcmid)} ・・・(式7)
Sb ″ = {(H−Hcmid) × Sb ′ + (Hbmid−H) × Sc ′} /
{(Hbmid−Hcmid)} (Expression 7)
また、本実施形態における補正されたV値(Vb’’)は、
− 変換対象領域のH値(H)、
− 変換対象とする領域のH値の代表値(Hbmid)、
− 変換対象となる画素のH値の色相座標位置に近い側の隣接領域(この場合は、C領
域)にH値の代表値(Hcmid)、
− 上記式(4)に対応する変換式で変換された(すなわち、B領域の明度補正テーブ
ルを用いて算出された)変換対象領域のV値(Vb’、Hbmidに対応するもの)、
− 上記式(5)に対応する変換式で変換された(すなわち、C領域の明度補正テーブ
ルを用いて算出された)隣接する領域のS値(Vc’、Hcidに対応するもの)、
を用いて、以下の式で求めることができる。
Further, the corrected V value (Vb ″) in the present embodiment is
-H value (H) of the conversion target area,
-H value representative value (Hbmid) of the area to be converted,
A representative value (Hcmid) of the H value in the adjacent region (in this case, the C region) closer to the hue coordinate position of the H value of the pixel to be converted;
-V value (corresponding to Vb ', Hbmid) of the conversion target area converted by the conversion formula corresponding to the above formula (4) (that is, calculated using the brightness correction table of the B area),
-S value of the adjacent area (that corresponds to Vc ', Hcid) converted by the conversion formula corresponding to the above formula (5) (that is, calculated using the brightness correction table of the C area),
Can be obtained by the following equation.
Vb’’ = {(H−Hcmid)×Vb’+(Hbmid−H)×Vc’}/
{(Hbmid−Hcmid)} ・・・(式8)
Vb ″ = {(H−Hcmid) × Vb ′ + (Hbmid−H) × Vc ′} /
{(Hbmid−Hcmid)} (Equation 8)
上述した処理を、図16に示されるB領域の一部(H値の範囲:210<H≦240)及びC領域の一部(H値の範囲180<H≦210)に対して行う。これにより、入力の色相値(H)に応じた重み付け計算により、出力の彩度値(S’’)及び明度値(V’’)
を求めることにより、各色相間の補正効果を滑らかにすることができる。
The above-described processing is performed on part of the B region (H value range: 210 <H ≦ 240) and part of the C region (H value range 180 <H ≦ 210) shown in FIG. Thus, the saturation value (S ″) and the lightness value (V ″) of the output are calculated by weighting calculation according to the hue value (H) of the input.
Thus, the correction effect between the hues can be smoothed.
また、上述した画像補正処理を適宜組合せて本発明を実現することも可能である。すなわち、Hにおいては、画像補正を際立たせるようにし、SとVにおいては階調とびを防止する処理するよう構成することもできる。 Further, the present invention can be realized by appropriately combining the above-described image correction processes. That is, it is possible to make the image correction stand out in H, and to prevent gradation skipping in S and V.
[表示態様の変更処理(第1実施形態)]
上述したとおり本発明においては、元画像の一部の領域のみについて画像補正処理を行うことができる。この場合、元画像のどの部分に画像補正処理を行ったか把握できることが望ましい。その一例として、図17に示すように、画像補正した領域と画像補正を行わなかった領域の境界に、境界線20を表示用画面上に表示させることができる。
[Display Mode Change Processing (First Embodiment)]
As described above, in the present invention, image correction processing can be performed only on a partial region of the original image. In this case, it is desirable to be able to grasp which part of the original image has been subjected to the image correction processing. As an example, as shown in FIG. 17, the boundary line 20 can be displayed on the display screen at the boundary between the image-corrected region and the region where the image correction is not performed.
次に、境界線20を表示するための処理の一例について説明する。例えば、図18に示すような3x3のマスクを用いて表示用画像の所定の画素を他の色に変更することによって、境界線20を生成することができる。具体的には、注目画素の8近傍を参照画素とし、
(1)注目画素が画像補正対象の画素である
(2)参照画素の少なくとも1つの画素が画像補正対象ではない
という2つの条件を共に満たす画素については、他の色に変換することにより、境界線20を生成することができる。また、上記説明した例においては、境界線20の線幅は1画素分であるから、表示用画像の大きさに応じて、境界線20の線幅を広くしてもよい。この場合は、境界線20に対し膨張処理を行ってもよい。
Next, an example of a process for displaying the boundary line 20 will be described. For example, the boundary line 20 can be generated by changing a predetermined pixel of the display image to another color using a 3 × 3 mask as shown in FIG. Specifically, 8 neighborhoods of the target pixel are set as reference pixels,
(1) A pixel of interest is a pixel to be image corrected (2) A pixel that satisfies both of the two conditions that at least one of the reference pixels is not an image correction target is converted into another color to obtain a boundary Line 20 can be generated. In the example described above, since the line width of the boundary line 20 is one pixel, the line width of the boundary line 20 may be increased according to the size of the display image. In this case, expansion processing may be performed on the boundary line 20.
また、境界線の色は適宜設定可能である。例えば、予めユーザに境界線色を選択させてもよいし、画像処理装置1において予め設定しておいてもよい。また、境界線に該当する画素値をRGB値に変換し、当該RGB値を変換して生成したR’、G’、B’を用いてもよい。ここで、256階調でR、G、Bを表現した場合は、
R’ = 255−R
G’ = 255−G
B’ = 255−B
としてもよい。
The color of the boundary line can be set as appropriate. For example, the user may select the border color in advance or may be set in advance in the image processing apparatus 1. Alternatively, R ′, G ′, and B ′ generated by converting the pixel value corresponding to the boundary line into an RGB value and converting the RGB value may be used. Here, when R, G, and B are expressed with 256 gradations,
R '= 255-R
G '= 255-G
B '= 255-B
It is good.
また、図20に示すように、画像補正した領域を枠線21で囲うように構成してもよい。 Further, as shown in FIG. 20, the image corrected area may be surrounded by a frame line 21.
[表示態様の変更処理(第2実施形態)]
表示用画像の表示形態としては、画像補正が行われない領域をグレースケール(無彩色)で表示するよう処理してもよい。ここで、無彩画像補正の方法としては、以下の処理が考えられる。
[Display Mode Change Processing (Second Embodiment)]
As a display form of the display image, a region where image correction is not performed may be processed to be displayed in gray scale (achromatic color). Here, as a method for correcting the achromatic image, the following processing can be considered.
[平均値を使用する方法]
表示用画像がRGB形式の場合、画像補正を行われない領域の画素(R、B、G)に対し、
R’=(R+G+B)/3
G’=(R+G+B)/3
B’=(R+G+B)/3
と変換することにより、グレースケールの画素値を算出することができる。
[How to use the average value]
When the display image is in the RGB format, the pixels (R, B, G) in the region where the image correction is not performed are
R ′ = (R + G + B) / 3
G ′ = (R + G + B) / 3
B ′ = (R + G + B) / 3
Thus, a grayscale pixel value can be calculated.
[輝度成分Yを使用する方法]
表示用画像がRGB形式の場合、画像補正が行われない領域の画素(R、G、B)に対し、輝度値Yを、
Y=0.29891×R + 0.58661×G + 0.11448×B
として算出し、R’=G’=B’=Yと変換することにより、グレースケールの画素値を算出することができる。なお、Y値の導出式は単なる一例であり、別の式を用いてY値を算出してもよい。
[Method of using luminance component Y]
When the display image is in the RGB format, the luminance value Y is set to the pixels (R, G, B) in the region where the image correction is not performed.
Y = 0.29891 × R + 0.58661 × G + 0.11448 × B
As a result of conversion as R ′ = G ′ = B ′ = Y, a grayscale pixel value can be calculated. The Y value derivation formula is merely an example, and the Y value may be calculated using another formula.
また、無彩色に変換した領域の階調を下げてよい。すなわち、256階調で表現されていたものを128階調で表現してもよい。さらに、境界線20を表示状態で、画像補正が行われない領域を無彩色に変換してもよい。 Further, the gradation of the region converted to an achromatic color may be lowered. That is, what was expressed with 256 gradations may be expressed with 128 gradations. Further, a region where image correction is not performed may be converted to an achromatic color while the boundary line 20 is displayed.
[表示用画像の生成処理(第2実施形態)]
図4に示した処理においては、表示用画像に対し画像補正処理を施し、ユーザからの印刷指示があると、元画像に対し画像補正処理を行っていたが、本発明の別の態様としては、元画像に対し画像補正処理を行い、画像補正された元画像を解像度変換することによって表示用画像を生成・表示することもできる。
[Display Image Generation Processing (Second Embodiment)]
In the processing shown in FIG. 4, image correction processing is performed on the display image, and when there is a print instruction from the user, the image correction processing is performed on the original image. However, another aspect of the present invention is as follows. It is also possible to generate and display a display image by performing image correction processing on the original image, and converting the resolution of the original image that has been corrected.
図20に、当該処理のフローチャートを示す。基本的な処理は図4において示した処理と同様であるが、S87において、補正した元画像から表示用画像を生成する点が異なる。図20に示す処理においては、表示用画像生成の前段階で元画像の画像補正処理を行うため、図4で縮小画像に対して画像補正処理を行うものに比べて、表示用画像の表示までの処理に時間がかかるが、印刷指示から印刷完了までの処理時間は短縮することができる。 FIG. 20 shows a flowchart of the process. The basic process is the same as the process shown in FIG. 4 except that a display image is generated from the corrected original image in S87. In the process shown in FIG. 20, since the original image correction process is performed before the display image generation, the display image is displayed as compared with the image correction process performed on the reduced image in FIG. However, the processing time from the printing instruction to the completion of printing can be shortened.
また、図20で示した処理においても、代表値再設定処理や、表示態様変更処理を付加してもよいことは、いうまでもない。また、図4の処理において、表示用画像を補正するための特徴量として上記第2特徴量の代わりに、表示用画像から抽出した特徴量を用いるよう構成してもよい。 Further, it goes without saying that the representative value resetting process and the display mode changing process may be added to the process shown in FIG. In the process of FIG. 4, a feature amount extracted from the display image may be used instead of the second feature amount as the feature amount for correcting the display image.
[基本処理の他の態様]
図21に本発明の別の実施形態のフローチャートを示す。本実施形態においては、お手本画像がスキャナ2の画像読取部に設置されているかを判断し(S102)、お手本画像が設置されていれば(S102:YES)、設置されているお手本画像を利用して画像補正処理を行う。一方、お手本画像が設定されていなければ(S102:NO)、元画像をそのまま印刷する。これにより、画像補正を行うか否かを自動的に判別して処理を行うことができる。
[Other aspects of basic processing]
FIG. 21 shows a flowchart of another embodiment of the present invention. In this embodiment, it is determined whether the model image is installed in the image reading unit of the scanner 2 (S102). If the model image is installed (S102: YES), the installed model image is used. To perform image correction processing. On the other hand, if the model image is not set (S102: NO), the original image is printed as it is. Accordingly, it is possible to automatically determine whether or not to perform image correction and perform processing.
S102におけるお手本画像が設置されているかを判断する処理は、プレスキャンによって実現することができる。このとき、プレスキャンは高精細なスキャンを行う必要はない。 The process of determining whether the model image is installed in S102 can be realized by pre-scanning. At this time, it is not necessary to perform high-definition scanning in the pre-scan.
また、図21で示した処理においても、代表値再設定処理や、表示態様変更処理を付加してもよいことは、いうまでもない。また、図4の処理において、表示用画像を補正するための特徴量として上記第2特徴量の代わりに、表示用画像から抽出した特徴量を用いるよう構成してもよい。 Further, it goes without saying that the representative value resetting process and the display mode changing process may be added to the process shown in FIG. In the processing of FIG. 4, a feature amount extracted from the display image may be used instead of the second feature amount as the feature amount for correcting the display image.
本発明によれば、印刷前段階で補正内容を把握することができるため、効率のよい画像補正処理を実現することができる。また、スキャナより入力された画像の特徴を有するよう画像補正を行うことにより、簡易な操作で、かつ、感覚的に画像補正の操作を行うことができる。 According to the present invention, since the correction contents can be grasped at the pre-printing stage, an efficient image correction process can be realized. Further, by performing image correction so as to have the characteristics of the image input from the scanner, it is possible to perform the image correction operation intuitively and intuitively.
さらに、本発明の画像補正処理によれば、例えば、元画像として建物と空が写っている元画像に対し、空の青を鮮やかな海の青に変換したい場合は、お手本画像として鮮やかな海の写っている写真をスキャナで読み込むという作業によって、元画像の青色が鮮やかな海の青に変換することができる。 Furthermore, according to the image correction processing of the present invention, for example, when it is desired to convert sky blue to vivid sea blue with respect to the original image in which the building and the sky are reflected as the original image, You can convert the blue color of the original image into vivid sea blue by scanning the photo with the scanner.
また、人の顔が映っている画像において、肌色を明るくしたい場合は、明るい肌色として移っている手のひら等の写真をスキャナで読み込むという作業によって、元画像の肌色を明るい肌色に変換することができる。 Also, if you want to brighten the skin color in an image showing a human face, you can convert the skin color of the original image to a light skin color by reading a picture of the palm that has moved to a bright skin color with a scanner. .
利用者は、パラメータの入力等の必要がないので、何ら専門的な知識が必要とせず、画像補正のお手本となる画像を読み取らせるだけで、所望の画像補正を行うことができる。さらに、画像補正を行う領域を自動的に選択可能であるので、知覚されにくい領域の変換を中止または低減し、知覚されやすい領域のみを変換することもできる。 Since the user does not need to input parameters or the like, he / she does not need any specialized knowledge and can perform desired image correction only by reading an image serving as a model for image correction. Furthermore, since it is possible to automatically select a region for performing image correction, it is possible to stop or reduce conversion of a region that is difficult to perceive and convert only a region that is easily perceived.
なお、本発明は前記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。例えば、スキャナからお手本画像を読み取ることに代えて、記憶媒体よりお手本画像として画像を読み取ることもできる。また、記憶媒体から元画像を読み取ることに代えて、スキャナより元画像を読み込むこともできる。例えば、画像処理装置として、スキャナおよびプリンタが搭載された複合機を実施形態としてあげたが、これに限らず、例えば、パーソナルコンピュータのような情報処理装置にて、画像補正を行い、情報処理装置に接続されたプリンタに印刷処理を行わせる構成であってもよい。 In addition, this invention is not limited to the said embodiment, Of course, various improvement and deformation | transformation are possible within the range which does not deviate from the summary of this invention. For example, instead of reading a model image from a scanner, the image can be read as a model image from a storage medium. Further, instead of reading the original image from the storage medium, the original image can be read from the scanner. For example, a multifunction machine equipped with a scanner and a printer is described as an embodiment as an image processing apparatus. However, the present invention is not limited to this. For example, an information processing apparatus such as a personal computer performs image correction, and the information processing apparatus. The printer may be configured to perform printing processing.
また、上述した処理を実行するための画像処理方法としても本発明は実現可能である。さらに、当該画像処理方法をコンピュータで実行させるためのプログラム、及び、そのプログラムが記録された記録媒体としても本発明は実現可能である。 The present invention can also be realized as an image processing method for executing the above-described processing. Further, the present invention can be realized as a program for causing the computer to execute the image processing method and a recording medium on which the program is recorded.
また、上述したフローチャートは単なる一例であり、上記処理と同等の結果を得ることできる処理であれば、他のフローチャートによって処理を実現してもよい。 Further, the above-described flowchart is merely an example, and the process may be realized by another flowchart as long as it can obtain a result equivalent to the above-described process.
1 画像処理装置
2 スキャナ
3 メモリスロット
4 操作パネル
5 排出口
6 表示手段
10 プリンタ
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Scanner 3 Memory slot 4 Operation panel 5 Ejection port 6 Display means 10 Printer
Claims (11)
前記第1画像入力手段は、第1画像を入力し、
前記第2画像入力手段は、第2画像を入力し、
前記作成手段は、前記第2画像を第2表示用画像として作成し、
前記特徴量抽出手段は、第1画像から第1特徴量を、前記第2画像または前記第2表示用画像から第2特徴量を抽出し、
前記画像補正手段は、前記第1特徴量及び前記第2特徴量に基いて、前記第2表示用画像及び前記第2画像を画像補正し、
前記表示手段は、前記画像補正された第2表示用画像を表示し、
前記印刷制御手段は、前記表示手段の表示結果に基いて、前記画像補正手段により画像補正された第2画像を印刷するための処理を実行し、
前記画像補正手段は、前記第2表示用画像の所定領域に対して画像補正を行い、
前記表示手段は、前記画像補正された表示用画像を、前記画像補正された領域と画像補正されなかった領域との境界に境界線を描いた画像を表示し、
前記境界線の色は、前記画像補正された領域の色情報に基いて決定される、
ことを特徴とする画像処理装置。 In an image processing apparatus comprising a first image input means, a second image input means, a creation means, a feature amount extraction means, an image correction means, a display means, and a print control means,
The first image input means inputs a first image,
The second image input means inputs a second image,
The creating means creates the second image as a second display image,
The feature amount extraction unit extracts a first feature amount from the first image, and extracts a second feature amount from the second image or the second display image,
The image correcting means corrects the second display image and the second image based on the first feature amount and the second feature amount,
The display means displays the second image for display corrected for the image,
The print control unit executes a process for printing the second image image-corrected by the image correction unit based on the display result of the display unit ;
The image correction means performs image correction on a predetermined area of the second display image,
The display means displays the image for which the image has been corrected, an image in which a boundary line is drawn at the boundary between the image-corrected region and the region where the image has not been corrected;
The color of the boundary line is determined based on color information of the image corrected region.
An image processing apparatus.
前記第1画像入力手段は、第1画像を入力し、
前記第2画像入力手段は、第2画像を入力し、
前記作成手段は、前記第2画像を第2表示用画像として作成し、
前記特徴量抽出手段は、第1画像から第1特徴量を、前記第2画像または前記第2表示用画像から第2特徴量を抽出し、
前記画像補正手段は、前記第1特徴量及び前記第2特徴量に基いて、前記第2表示用画像を画像補正し、
前記表示手段は、前記画像補正された第2表示用画像を表示し、
前記画像補正手段は、前記表示手段の表示結果に基いて、前記第2画像を画像補正し、前記第2表示用画像の所定領域に対して画像補正を行い、
前記表示手段は、前記画像補正された表示用画像を、前記画像補正された領域と画像補正されなかった領域との境界に境界線を描いた画像を表示し、
前記境界線の色は、前記画像補正された領域の色情報に基いて決定される、
ことを特徴とする画像処理装置。 In an image processing apparatus comprising a first image input means, a second image input means, a creation means, a feature amount extraction means, an image correction means, and a display means,
The first image input means inputs a first image,
The second image input means inputs a second image,
The creating means creates the second image as a second display image,
The feature amount extraction unit extracts a first feature amount from the first image, and extracts a second feature amount from the second image or the second display image,
The image correction means corrects the second display image based on the first feature amount and the second feature amount;
The display means displays the second image for display corrected for the image,
The image correction means corrects the second image based on the display result of the display means , performs image correction on a predetermined area of the second display image,
The display means displays the image for which the image has been corrected, an image in which a boundary line is drawn at the boundary between the image-corrected region and the region where the image has not been corrected;
The color of the boundary line is determined based on color information of the image corrected region.
An image processing apparatus.
前記第1画像入力手段は、第1画像を入力し、 The first image input means inputs a first image,
前記第2画像入力手段は、第2画像を入力し、 The second image input means inputs a second image,
前記作成手段は、前記第2画像を第2表示用画像として作成し、 The creating means creates the second image as a second display image,
前記特徴量抽出手段は、第1画像から第1特徴量を、前記第2画像または前記第2表示用画像から第2特徴量を抽出し、 The feature amount extraction unit extracts a first feature amount from the first image, and extracts a second feature amount from the second image or the second display image,
前記画像補正手段は、前記第1特徴量及び前記第2特徴量に基いて、前記第2表示用画像及び前記第2画像を画像補正し、 The image correcting means corrects the second display image and the second image based on the first feature amount and the second feature amount,
前記表示手段は、前記画像補正された第2表示用画像を表示し、 The display means displays the second image for display corrected for the image,
前記印刷制御手段は、前記表示手段の表示結果に基いて、前記画像補正手段により画像補正された第2画像を印刷するための処理を実行し、 The print control unit executes a process for printing the second image image-corrected by the image correction unit based on the display result of the display unit;
前記画像補正手段は、前記第2表示用画像の所定領域に対して画像補正を行い、 The image correction means performs image correction on a predetermined area of the second display image,
前記表示手段は、前記画像補正された表示用画像を、前記画像補正されなかった領域を無彩色に変換し、前記無彩色に変換した領域の階調を他の領域より小さくして表示する、 The display means displays the image-corrected display image by converting the non-image-corrected area to an achromatic color and displaying the gradation of the area converted to the achromatic color smaller than other areas.
ことを特徴とする画像処理装置。An image processing apparatus.
前記第1画像入力手段は、第1画像を入力し、 The first image input means inputs a first image,
前記第2画像入力手段は、第2画像を入力し、 The second image input means inputs a second image,
前記作成手段は、前記第2画像を第2表示用画像として作成し、 The creating means creates the second image as a second display image,
前記特徴量抽出手段は、第1画像から第1特徴量を、前記第2画像または前記第2表示用画像から第2特徴量を抽出し、 The feature amount extraction unit extracts a first feature amount from the first image, and extracts a second feature amount from the second image or the second display image,
前記画像補正手段は、前記第1特徴量及び前記第2特徴量に基いて、前記第2表示用画像を画像補正し、 The image correction means corrects the second display image based on the first feature amount and the second feature amount;
前記表示手段は、前記画像補正された第2表示用画像を表示し、 The display means displays the second image for display corrected for the image,
前記画像補正手段は、前記表示手段の表示結果に基いて、前記第2画像を画像補正し、前記第2表示用画像の所定領域に対して画像補正を行い、 The image correction means corrects the second image based on the display result of the display means, performs image correction on a predetermined area of the second display image,
前記表示手段は、前記画像補正された表示用画像を、前記画像補正されなかった領域を無彩色に変換し、前記無彩色に変換した領域の階調を他の領域より小さくして表示する、 The display means displays the image-corrected display image by converting the non-image-corrected area to an achromatic color and displaying the gradation of the area converted to the achromatic color smaller than other areas.
ことを特徴とする画像処理装置。An image processing apparatus.
前記画像変換手段は、前記補正データ基いて、前記第2表示用画像及び前記第2画像の画像補正を行う、
ことを特徴とする請求項1〜4のいずれかに記載の画像処理装置。 Correction data creating means for creating correction data based on the first feature quantity and the second feature quantity;
The image conversion means performs image correction of the second display image and the second image based on the correction data.
The image processing apparatus according to claim 1 , wherein the image processing apparatus is an image processing apparatus.
前記特徴量抽出手段は、
前記第2画像または前記第2表示用画像から色相に関する特徴量を抽出し、
前記色相に関する特徴量に基いて前記第1画像、前記第2画像または前記第2表示用画像それぞれを複数の領域に分割し、
前記分割した領域ごとに色相以外に関する特徴量を抽出し、
前記補正データ作成手段は、
前記第1画像、及び、前記第2画像または前記第2表示用画像それぞれの分割された領域ごとに、前記色相に関する特徴量の代表値を抽出し、当該代表値に基いて色相補正データを作成し、
前記第1画像、及び、前記第2画像または前記第2表示用画像それぞれの分割された領域ごとに、前記色相以外に関する特徴量の代表値を抽出し、
前記画像補正手段は、
前記第2画像及び前記第2表示用画像の画素ごとの色相に関する特徴量を、前記色相補正データに基いて補正し、
前記第2画像及び前記第2表示用画像の画素ごとの色相以外に関する特徴量を、前記領域ごとの代表値に基いて補正する、
ことを特徴とする請求項5に記載の画像処理装置。 The feature amount extraction unit extracts a feature amount related to a hue from the first image,
The feature amount extraction means includes:
Extracting a feature quantity related to hue from the second image or the second display image;
Dividing each of the first image, the second image, or the second display image into a plurality of regions based on the feature value relating to the hue;
For each of the divided areas, extract features other than hue,
The correction data creating means includes
For each of the divided areas of the first image and the second image or the second display image, a representative value of the feature value related to the hue is extracted, and hue correction data is created based on the representative value. And
For each of the divided areas of the first image and the second image or the second display image, a representative value of a feature value related to other than the hue is extracted,
The image correcting means includes
Correcting a feature amount related to a hue for each pixel of the second image and the second display image based on the hue correction data;
Correcting a feature amount related to other than the hue for each pixel of the second image and the second display image based on a representative value for each region;
The image processing apparatus according to claim 5 .
ことを特徴とする請求項6に記載の画像処理装置。 The feature amount related to the hue is calculated based on the H value in the HSV space.
The image processing apparatus according to claim 6 .
第1画像を入力する第1画像入力ステップ、
第2画像を入力する第2画像入力ステップ、
第2画像を第2表示用画像として作成する作成ステップ、
前記第1画像から第1特徴量を抽出する第1特徴量抽出ステップ、
前記第2画像または前記第2表示用画像から第2特徴量を抽出する第2特徴量抽出ステップ、
前記第1特徴量及び前記第2特徴量に基いて、前記第2表示用画像及び前記第2画像を画像補正する第1画像補正ステップ、
前記画像補正された第2表示用画像を表示する第1表示ステップ、
前記第1表示ステップの表示結果に基いて、前記画像補正された第2画像を印刷するための処理を実行する印刷制御ステップ、
前記第2表示用画像の所定領域に対して画像補正を行う第2画像補正ステップ、
前記画像補正された表示用画像を、前記画像補正された領域と画像補正されなかった領域との境界に境界線を描いた画像で表示する第2表示ステップ、
前記画像補正された領域の色情報に基いて、前記境界線の色を決定する線色決定ステップ、
を実行させるための画像処理プログラム。 On the computer,
A first image input step for inputting a first image;
A second image input step for inputting a second image;
A creation step of creating a second image as a second display image;
A first feature amount extracting step of extracting a first feature amount from the first image;
A second feature amount extracting step of extracting a second feature amount from the second image or the second display image;
A first image correction step of correcting the second display image and the second image based on the first feature amount and the second feature amount;
A first display step of displaying the image-corrected second display image;
A print control step for executing a process for printing the second image after the image correction based on the display result of the first display step;
A second image correction step for performing image correction on a predetermined region of the second display image;
A second display step of displaying the image-corrected display image in an image in which a boundary line is drawn at a boundary between the image-corrected region and a region that has not been image-corrected;
A line color determining step for determining a color of the boundary line based on color information of the image-corrected region;
An image processing program for executing
第1画像を入力する第1画像入力ステップ、 A first image input step for inputting a first image;
第2画像を入力する第2画像入力ステップ、 A second image input step for inputting a second image;
第2画像を第2表示用画像として作成する作成ステップ、 A creation step of creating a second image as a second display image;
前記第1画像から第1特徴量を抽出する第1特徴量抽出ステップ、 A first feature amount extracting step of extracting a first feature amount from the first image;
前記第2画像または前記第2表示用画像から第2特徴量を抽出する第2特徴量抽出ステップ、 A second feature amount extracting step of extracting a second feature amount from the second image or the second display image;
前記第1特徴量及び前記第2特徴量に基いて、前記第2表示用画像を画像補正する第1画像補正ステップ、 A first image correction step of correcting the second display image based on the first feature amount and the second feature amount;
前記画像補正された第2表示用画像を表示する第1表示ステップ、 A first display step of displaying the image-corrected second display image;
前記第1表示ステップの表示結果に基いて、前記第2画像を画像補正し、前記第2表示用画像の所定領域に対して画像補正を行う第2画像補正ステップ、 A second image correction step of correcting the second image based on the display result of the first display step, and performing image correction on a predetermined region of the second display image;
前記画像補正された表示用画像を、前記画像補正された領域と画像補正されなかった領域との境界に境界線を描いた画像で表示する第2表示ステップ、 A second display step of displaying the image-corrected display image as an image in which a boundary line is drawn at a boundary between the image-corrected region and a region that has not been image-corrected;
前記画像補正された領域の色情報に基いて、前記境界線の色を決定する線色決定ステップ、 A line color determining step for determining a color of the boundary line based on color information of the image-corrected region;
を実行させるための画像処理プログラム。An image processing program for executing
第1画像を入力する第1画像入力ステップ、
第2画像を入力する第2画像入力ステップ、
第2画像を第2表示用画像として作成する作成ステップ、
前記第1画像から第1特徴量を抽出する第1特徴量抽出ステップ、
前記第2画像または前記第2表示用画像から第2特徴量を抽出する第2特徴量抽出ステップ、
前記第1特徴量及び前記第2特徴量に基いて、前記第2表示用画像及び前記第2画像を画像補正する第1画像補正ステップ、
前記画像補正された第2表示用画像を表示する第1表示ステップ、
前記第1表示ステップの表示結果に基いて、前記画像補正された第2画像を印刷するための処理を実行する印刷制御ステップ、
前記第2表示用画像の所定領域に対して画像補正を行う第2画像補正ステップ、
前記画像補正された表示用画像を、前記画像補正されなかった領域を無彩色に変換し、前記無彩色に変換した領域の階調を他の領域より小さくして表示する第2表示ステップ、
を実行させるための画像処理プログラム。 On the computer,
A first image input step for inputting a first image;
A second image input step for inputting a second image;
A creation step of creating a second image as a second display image;
A first feature amount extracting step of extracting a first feature amount from the first image;
A second feature amount extracting step of extracting a second feature amount from the second image or the second display image;
A first image correction step of correcting the second display image and the second image based on the first feature amount and the second feature amount;
A first display step of displaying the image-corrected second display image;
A print control step for executing a process for printing the second image after the image correction based on the display result of the first display step;
A second image correction step for performing image correction on a predetermined region of the second display image;
A second display step of displaying the image-corrected display image by converting the region that has not been image-corrected into an achromatic color and displaying the gradation of the region that has been converted to the achromatic color smaller than other regions;
An image processing program for executing
第1画像を入力する第1画像入力ステップ、 A first image input step for inputting a first image;
第2画像を入力する第2画像入力ステップ、 A second image input step for inputting a second image;
第2画像を第2表示用画像として作成する作成ステップ、 A creation step of creating a second image as a second display image;
前記第1画像から第1特徴量を抽出する第1特徴量抽出ステップ、 A first feature amount extracting step of extracting a first feature amount from the first image;
前記第2画像または前記第2表示用画像から第2特徴量を抽出する第2特徴量抽出ステップ、 A second feature amount extracting step of extracting a second feature amount from the second image or the second display image;
前記第1特徴量及び前記第2特徴量に基いて、前記第2表示用画像を画像補正する第1画像補正ステップ、 A first image correction step of correcting the second display image based on the first feature amount and the second feature amount;
前記画像補正された第2表示用画像を表示する第1表示ステップ、 A first display step of displaying the image-corrected second display image;
前記第1表示ステップの表示結果に基いて、前記第2画像を画像補正し、前記第2表示用画像の所定領域に対して画像補正を行う第2画像補正ステップ、 A second image correction step of correcting the second image based on the display result of the first display step, and performing image correction on a predetermined region of the second display image;
前記画像補正された表示用画像を、前記画像補正されなかった領域を無彩色に変換し、前記無彩色に変換した領域の階調を他の領域より小さくして表示する第2表示ステップ、 A second display step of displaying the image-corrected display image by converting the area not image-corrected into an achromatic color and displaying the gradation of the area converted into the achromatic color smaller than other areas;
を実行させるための画像処理プログラム。An image processing program for executing
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007226588A JP4442665B2 (en) | 2007-08-31 | 2007-08-31 | Image processing apparatus and image processing program |
US12/202,971 US8094343B2 (en) | 2007-08-31 | 2008-09-02 | Image processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007226588A JP4442665B2 (en) | 2007-08-31 | 2007-08-31 | Image processing apparatus and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009060433A JP2009060433A (en) | 2009-03-19 |
JP4442665B2 true JP4442665B2 (en) | 2010-03-31 |
Family
ID=40555745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007226588A Expired - Fee Related JP4442665B2 (en) | 2007-08-31 | 2007-08-31 | Image processing apparatus and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4442665B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5208057B2 (en) * | 2009-06-16 | 2013-06-12 | キヤノン株式会社 | Image processing apparatus and control method thereof |
-
2007
- 2007-08-31 JP JP2007226588A patent/JP4442665B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009060433A (en) | 2009-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4442664B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US20090027732A1 (en) | Image processing apparatus, image processing method, and computer program | |
JP4063290B2 (en) | Image processing apparatus, image processing program, and image processing method | |
US8340411B2 (en) | Smart image resizing with color-based entropy and gradient operators | |
JP5477320B2 (en) | Image processing device | |
JP2012212963A (en) | Controller | |
JP2022184133A (en) | Electronic watermark analyzing device and electronic watermark analyzing method | |
JP6341085B2 (en) | Image processing apparatus and computer program | |
JP4941331B2 (en) | Printing method, printing apparatus, correspondence table generation method, and program | |
JP4389977B2 (en) | Image printing apparatus, image printing method, and image printing program | |
US8633943B2 (en) | Image display apparatus, image display method, and program storage medium for arranging and displaying images of a plurality of tones | |
JP2012212962A (en) | Controller | |
JP4985243B2 (en) | Image processing apparatus and image processing program | |
JP4433017B2 (en) | Image processing apparatus and image processing program | |
JP2000182045A (en) | Method and picture for processing picture, picture processing system and recording medium | |
JP4442665B2 (en) | Image processing apparatus and image processing program | |
US8094343B2 (en) | Image processor | |
JP4831020B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP4793356B2 (en) | Image processing apparatus and image processing program | |
JP4826562B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP4831019B2 (en) | Image processing apparatus, image processing method, and image processing printing program | |
JP5045836B2 (en) | Image processing apparatus and image processing program | |
JP4840295B2 (en) | Image processing apparatus and image processing program | |
JP2001024872A (en) | Method and device for image processing, image processing system and recording medium | |
JP5672340B2 (en) | Control device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090716 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090728 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090925 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091222 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4442665 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130122 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140122 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |