JP2008072172A - Image processor, printer, image processing method, and printing method - Google Patents

Image processor, printer, image processing method, and printing method Download PDF

Info

Publication number
JP2008072172A
JP2008072172A JP2006246397A JP2006246397A JP2008072172A JP 2008072172 A JP2008072172 A JP 2008072172A JP 2006246397 A JP2006246397 A JP 2006246397A JP 2006246397 A JP2006246397 A JP 2006246397A JP 2008072172 A JP2008072172 A JP 2008072172A
Authority
JP
Japan
Prior art keywords
image
correction
degree
image data
match
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006246397A
Other languages
Japanese (ja)
Other versions
JP4710770B2 (en
Inventor
Hiroyuki Tsuji
宏幸 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2006246397A priority Critical patent/JP4710770B2/en
Publication of JP2008072172A publication Critical patent/JP2008072172A/en
Application granted granted Critical
Publication of JP4710770B2 publication Critical patent/JP4710770B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Record Information Processing For Printing (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily perform image correction processing matching user's preference without requesting the user to have high-level knowledge about image correction. <P>SOLUTION: Image data generated by photographing an object of photography are analyzed to calculate degrees of matching of a plurality of predetermined classifications, for example, a person image degree, a scene image degree, etc. The calculated degrees of matching are corrected by reflecting user's preference. Correction contents previously stored corresponding to the respective classifications are reflected at rates corresponding to the corrected degrees of matching to determine contents of correction to be performed for the image data. Consequently, when an image is corrected, the degree of matching of a classification considered to be important is only varied, so correction matching the user's preference can be performed without requesting the user to have high-level knowledge. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像を印刷する技術に関する。   The present invention relates to a technique for printing an image.

コンピュータ関連技術の進歩により、今日では、カラー画像もデジタル化された画像デ
ータとして取り扱われるようになってきた。例えばデジタルカメラを用いて画像を撮影し
た場合、撮影した画像を画像データとして記憶しておき、必要なときに画像データを選択
して印刷装置に供給することで、直ちに画像を印刷することが可能となっている。
Due to advances in computer-related technology, color images are now handled as digitized image data. For example, when an image is captured using a digital camera, the captured image is stored as image data, and can be printed immediately by selecting the image data and supplying it to a printing device when necessary. It has become.

また、このようにして画像データから画像を印刷する場合、画像データを解析して、そ
の画像が何を撮影したものであるか(例えば、人物を撮影したものか、風景を撮影したも
のかなど)を判定し、撮影対象に応じて画像データに補正を加えてから印刷する技術も開
発されている(特許文献1など)。例えば、その画像が人物を撮影したものであった場合
には、明度を若干高くして全体の印象が明るくなるように補正するとともに、輪郭は少し
ぼかして全体的に柔らかい印象を与えるように補正する。また、風景を撮影した画像につ
いては、輪郭を少し際立たせてクッキリとした印象となるように補正する。このように画
像データを補正してから印刷することで、撮影した画像に応じて、より好ましい画像を印
刷することが可能となる。
Also, when printing an image from image data in this way, the image data is analyzed and what the image was taken (for example, a person or a landscape) ), And a technique for printing after correcting the image data according to the object to be photographed has been developed (Patent Document 1, etc.). For example, if the image is a photograph of a person, the brightness is slightly increased to correct the overall impression, and the outline is slightly blurred to correct the overall impression. To do. In addition, the image obtained by photographing the landscape is corrected so that the outline is slightly emphasized to give a clear impression. By printing after correcting the image data in this way, a more preferable image can be printed according to the captured image.

特開2003−281514号公報JP 2003-281514 A

しかし、このように撮影対象に応じて画像を補正しているにも関わらず、常に好ましい
画像が得られるとは限らないという問題があった。これは、撮影対象に応じて加えるべき
補正の内容は、厳密にはユーザー毎に異なっているにも関わらず、実際には、いわば万人
向けに設定された内容で補正が行われている為と考えられる。
However, there is a problem that a preferable image is not always obtained even though the image is corrected in accordance with the photographing target. This is because, although the content of correction that should be applied according to the shooting target is strictly different for each user, the correction is actually performed with the content set for everyone. it is conceivable that.

もちろん、各ユーザーが好みに合わせて補正内容を修正することも考えられるが、補正
内容を適切に修正するためには画像補正処理に関する高度な知識が必要となるため、実際
には容易なことではない。
Of course, it is conceivable for each user to modify the correction content according to his / her preference. Absent.

本発明は、従来技術が有する上述した課題を解決するためになされたものであり、ユー
ザーの好みに合わせて適切に補正された画像を簡単に出力可能とする技術の提供を目的と
する。
SUMMARY An advantage of some aspects of the invention is that it provides a technique capable of easily outputting an image that has been appropriately corrected according to a user's preference.

上述した課題の少なくとも一部を解決するために、本発明の画像処理装置は次の構成を
採用した。すなわち、
撮影対象を写すことによって生成された画像データを解析することにより、該画像デー
タを撮影対象に基づいて所定の複数の類別に分類した後、該類別に応じた補正を加える画
像処理装置であって、
前記画像データに加える補正内容を、前記類別毎に記憶している補正内容記憶手段と、
前記画像データを解析することにより、該画像データの前記各類別に対する合致度を検
出する合致度検出手段と、
前記検出された各類別の合致度を修正する合致度修正手段と、
前記類別毎に記憶されている補正内容を、前記修正された合致度に応じた割合で反映さ
せることにより、前記画像データに補正を加える画像データ補正手段と
を備えることを要旨とする。
In order to solve at least a part of the problems described above, the image processing apparatus of the present invention employs the following configuration. That is,
An image processing apparatus that analyzes image data generated by copying a shooting target, classifies the image data into a plurality of predetermined classes based on the shooting target, and then performs correction according to the class. ,
Correction content storage means for storing correction content to be added to the image data for each category;
A degree-of-match detection means for detecting a degree of match for each classification of the image data by analyzing the image data;
A degree-of-match correction means for correcting the degree of match of each detected category;
The gist of the invention is to provide image data correction means for correcting the image data by reflecting the correction contents stored for each category at a ratio corresponding to the corrected degree of match.

また、上記の画像処理装置に対応する本発明の画像処理方法は、
撮影対象を写すことによって生成された画像データを解析することにより、該画像デー
タを撮影対象に基づいて所定の複数の類別に分類した後、該類別に応じた補正を加える画
像処理方法であって、
前記画像データに加える補正内容を、前記類別毎に記憶している第1の工程と、
前記画像データを解析することにより、該画像データの前記各類別に対する合致度を検
出する第2の工程と、
前記検出された各類別を修正する第3の工程と、
前記類別毎に記憶されている補正内容を、前記修正された合致度に応じた割合で反映さ
せることにより、前記画像データに補正を加える第4の工程と
を備えることを要旨とする。
The image processing method of the present invention corresponding to the above image processing apparatus is
An image processing method for analyzing image data generated by copying a shooting target, classifying the image data into a plurality of predetermined classes based on the shooting target, and then performing correction according to the classification ,
A first step of storing correction contents to be added to the image data for each category;
A second step of analyzing the image data to detect a degree of matching of the image data with respect to each category;
A third step of correcting each detected category;
And a fourth step of correcting the image data by reflecting the correction contents stored for each category at a ratio corresponding to the corrected degree of match.

かかる本発明の画像処理装置および画像処理方法では、撮影対象に基づいた複数の類別
(人物、風景など)が予め設定されており、また、類別ごとに対応する補正内容が記憶さ
れている。そして、画像データを受け取ると、画像データを解析することにより、それぞ
れの類別に対する合致度を算出する。次いで、算出された各類別の合致度と、記憶されて
いた各類別に対応する補正内容とに基づき、画像に施す補正処理を以下の様に決定する。
先ず、ユーザーの好みを反映させるべく、各類別の合致度に修正を加える。次いで、各類
別に対応する補正内容を、修正された各類別の合致度に応じて反映させ、補正内容を決定
する。こうして決定された補正内容に従い、画像データに補正処理を施す。
In the image processing apparatus and the image processing method of the present invention, a plurality of categories (persons, landscapes, etc.) based on the object to be photographed are set in advance, and correction contents corresponding to each category are stored. When the image data is received, the degree of match for each category is calculated by analyzing the image data. Next, correction processing to be performed on the image is determined as follows based on the calculated degree of matching for each category and the stored correction content corresponding to each category.
First, in order to reflect the user's preference, the degree of match for each category is modified. Next, the correction content corresponding to each category is reflected according to the corrected degree of matching of each category to determine the correction content. According to the correction content thus determined, the image data is corrected.

こうすれば、各類別の合致度を修正することで、ユーザーの好みに応じた補正内容で画
像を補正することが可能となる。また、ユーザーの好みを補正内容に反映させる際には、
類別毎に得られた合致度を修正すればよいので、どの類別を重視するのかという形でユー
ザーの好みを捉えるだけで足りる。このため、明度補正、コントラスト補正、シャープネ
ス補正などの高度な画像補正処理に関する知識をユーザーが有していなくとも、簡便に好
ましい画像に補正することが可能である。
In this way, it is possible to correct the image with the correction content according to the user's preference by correcting the degree of matching for each category. Also, when reflecting the user's preferences in the correction details,
Since it is only necessary to correct the degree of match obtained for each category, it is sufficient to capture the user's preference in the form of which category is important. For this reason, even if the user does not have knowledge about advanced image correction processing such as brightness correction, contrast correction, and sharpness correction, it is possible to easily correct to a preferable image.

また、各類別の合致度の組合せと、各類別の合致度に対して加える修正量とが対応付け
られたテーブル(合致度修正テーブル)を記憶しておき、それを参照して今回の画像デー
タの各類別の合致度を修正することとしてもよい。
In addition, a table (matching degree correction table) in which combinations of matching degrees for each category are associated with correction amounts to be added to the matching degrees for each category is stored, and the current image data is referenced with reference to the table. It is also possible to correct the degree of match for each category.

こうすれば、類別の合致度に加える修正量を、各類別の合致度の組合せごとに異なった
量とすることができる。一般に、ユーザーの好みは画像に写された内容に応じて異なるた
め、この様に各類別の合致度の組合せに修正量を対応させることで、より的確にユーザー
の好みを反映させることが可能となる。また、テーブルから情報を読み出すだけで補正量
を参照できるので、特別な演算処理が必要なく、簡便にユーザーの好みを反映させること
が可能となる。
In this way, the amount of correction added to the degree of match for each category can be made different for each combination of degree of match for each category. In general, user preferences differ depending on the content of the image, so it is possible to reflect user preferences more accurately by making corrections correspond to combinations of matching levels for each category. Become. Further, since the correction amount can be referred to simply by reading information from the table, no special calculation process is required, and user preferences can be easily reflected.

また、記憶されている合致度修正テーブルを用いてユーザーの好みの補正内容を推定し
た後、推定した補正内容で補正された画像を画面や印刷用紙上に出力して、ユーザーが確
認できる様にしてもよい。そして、出力された画像を確認して、ユーザーが好みの補正内
容となる様に変更した修正値を、各類別の合致度とともに合致度修正テーブルに記憶する
こととしてもよい。
In addition, after estimating the user's preferred correction content using the stored match correction table, an image corrected with the estimated correction content is output on a screen or printing paper so that the user can check it. May be. Then, the output value may be confirmed, and the correction value changed so that the user can obtain the desired correction content may be stored in the matching degree correction table together with the matching degree of each category.

こうすることで、推定された補正内容が実際に好みに合致しているかどうかをユーザー
が確認することができる。さらに、ユーザーは各類別の合致度に対する修正量を変更する
ことで補正内容を設定することができるので、高度な画像補正の知識がなくても、簡便に
好みの画像に補正することが可能となる。また、こうした処理に伴い合致度修正テーブル
に記憶されている情報が増えてゆくので、より適切にユーザーの好みを反映した補正内容
を推定することが可能となり好適である。
In this way, the user can confirm whether or not the estimated correction content actually matches the preference. Furthermore, since the user can set the correction content by changing the correction amount for the degree of match for each category, it is possible to easily correct to a favorite image without knowledge of advanced image correction. Become. In addition, since the information stored in the matching degree correction table increases with such processing, it is possible to estimate the correction contents reflecting the user's preference more appropriately, which is preferable.

また、上述した本発明の画像処理方法により、ユーザーの好みに合致した補正がなされ
た画像を印刷することが可能となる点に鑑みれば、本発明は、次のように印刷装置として
把握することも可能である。すなわち、本発明の印刷装置は、
撮影対象を写すことによって生成された画像データを解析することにより、該画像デー
タを撮影対象に基づいて所定の複数の類別に分類した後、該類別に応じた補正を加えて画
像を印刷する印刷装置であって、
前記画像データに加える補正内容を、前記類別毎に記憶している補正内容記憶手段と、
前記画像データを解析することにより、該画像データの前記各類別に対する合致度を検
出する合致度検出手段と、
前記検出された各類別の合致度を修正する合致度修正手段と、
前記類別毎に記憶されている補正内容を、前記修正された合致度に応じた割合で反映さ
せることにより、前記画像データに補正を加える画像データ補正手段と、
前記補正された画像データに基づいて画像を印刷する画像印刷手段と
を備えることを要旨とする。
In view of the fact that the image processing method of the present invention described above makes it possible to print an image that has been corrected to the user's preference, the present invention can be understood as a printing apparatus as follows. Is also possible. That is, the printing apparatus of the present invention is
Print that analyzes the image data generated by copying the object to be photographed, classifies the image data into a plurality of predetermined classes based on the object to be photographed, and then prints the image with corrections according to the classes A device,
Correction content storage means for storing correction content to be added to the image data for each category;
A degree-of-match detection means for detecting a degree of match for each classification of the image data by analyzing the image data;
A degree-of-match correction means for correcting the degree of match of each detected category;
Image data correction means for correcting the image data by reflecting the correction content stored for each category at a rate corresponding to the corrected degree of match;
And an image printing unit that prints an image based on the corrected image data.

また、上記の印刷装置に対応する本発明の印刷方法は、
撮影対象を写すことによって生成された画像データを解析することにより、該画像デー
タを撮影対象に基づいて所定の複数の類別に分類した後、該類別に応じた補正を加えて印
刷する印刷方法であって、
前記画像データに加える補正内容を、前記類別毎に記憶している工程(A)と、
前記画像データを解析することにより、該画像データの前記各類別に対する合致度を検
出する工程(B)と、
前記検出された各類別の合致度を修正する工程(C)と、
前記類別毎に記憶されている補正内容を、前記修正された合致度に応じた割合で反映さ
せることにより、前記画像データに補正を加える工程(D)と
前記補正された画像データに基づいて画像を印刷する工程(E)と
を備えることを要旨とする。
Also, the printing method of the present invention corresponding to the above printing apparatus is
A printing method in which image data generated by copying a shooting target is analyzed, and the image data is classified into a plurality of predetermined classes based on the shooting target, and then printed with corrections according to the classes. There,
(A) storing correction contents to be added to the image data for each category;
Analyzing the image data to detect a degree of match for each classification of the image data (B);
A step (C) of correcting the degree of matching of each detected category;
A step (D) of correcting the image data by reflecting the correction content stored for each category at a ratio corresponding to the corrected degree of matching, and an image based on the corrected image data And a step (E) for printing.

更に本発明は、上述した画像処理方法あるいは印刷方法を実現するためのプログラムを
コンピュータに読み込ませ、所定の機能を実行させることにより、コンピュータを用いて
実現することも可能である。従って、本発明は次のようなプログラム、あるいは該プログ
ラムを記録した記録媒体としての態様も含んでいる。すなわち、上述した画像処理方法に
対応する本発明のプログラムは、
撮影対象を写すことによって生成された画像データを解析することにより、該画像デー
タを撮影対象に基づいて所定の複数の類別に分類した後、該類別に応じた補正を加える方
法を、コンピュータを用いて実現するためのプログラムであって、
前記画像データに加える補正内容を、前記類別毎に記憶している第1の機能と、
前記画像データを解析することにより、該画像データの前記各類別に対する合致度を検
出する第2の機能と、
前記検出された各類別の合致度を修正する第3の機能と、
前記類別毎に記憶されている補正内容を、前記修正された合致度に応じた割合で反映さ
せることにより、前記画像データに補正を加える第4の機能と
をコンピュータを用いて実現させることを要旨とする。
Furthermore, the present invention can be realized using a computer by causing a computer to read a program for realizing the above-described image processing method or printing method and executing a predetermined function. Therefore, the present invention includes the following program or a mode as a recording medium on which the program is recorded. That is, the program of the present invention corresponding to the image processing method described above is
Using a computer, a method for classifying the image data into a plurality of predetermined classes based on the shooting target by analyzing the image data generated by copying the shooting target, and then performing correction according to the classification A program for realizing
A first function storing correction contents to be added to the image data for each of the categories;
A second function of detecting the degree of match for each classification of the image data by analyzing the image data;
A third function for correcting the degree of match of each detected category;
A fourth function for correcting the image data is realized by using a computer by reflecting the correction content stored for each category at a rate corresponding to the corrected degree of match. And

また、上記のプログラムに対応する本発明の記録媒体は、
撮影対象を写すことによって生成された画像データを解析することにより、該画像デー
タを撮影対象に基づいて所定の複数の類別に分類した後、該類別に応じた補正を加えるプ
ログラムを、コンピュータで読み取り可能に記録した記録媒体であって、
前記画像データに加える補正内容を、前記類別毎に記憶している第1の機能と、
前記画像データを解析することにより、該画像データの前記各類別に対する合致度を検
出する第2の機能と、
前記検出された各類別の合致度を修正する第3の機能と、
前記類別毎に記憶されている補正内容を、前記修正された合致度に応じた割合で反映さ
せることにより、前記画像データに補正を加える第4の機能と
をコンピュータを用いて実現させるプログラムを記録していることを要旨とする。
The recording medium of the present invention corresponding to the above program is
By analyzing the image data generated by copying the object to be imaged, the image data is classified into a plurality of predetermined classes based on the object to be imaged, and then a program for performing correction according to the class is read by a computer A recording medium capable of recording,
A first function storing correction contents to be added to the image data for each of the categories;
A second function of detecting the degree of match for each classification of the image data by analyzing the image data;
A third function for correcting the degree of match of each detected category;
A program for realizing, using a computer, a fourth function for correcting the image data by reflecting the correction contents stored for each category at a rate corresponding to the corrected degree of coincidence. It is a summary.

更に、上述した印刷方法に対応する本発明のプログラムは、
撮影対象を写すことによって生成された画像データを解析することにより、該画像デー
タを撮影対象に基づいて所定の複数の類別に分類した後、該類別に応じた補正を加えて画
像を印刷する方法を、コンピュータを用いて実現するためのプログラムであって、
前記画像データに加える補正内容を、前記類別毎に記憶している機能(A)と、
前記画像データを解析することにより、該画像データの前記各類別に対する合致度を検
出する機能(B)と、
前記検出された各類別の合致度を修正する機能(C)と、
前記類別毎に記憶されている補正内容を、前記修正された合致度に応じた割合で反映さ
せることにより、前記画像データに補正を加える機能(D)と、
前記補正された画像データに基づいて画像を印刷する機能(E)と
をコンピュータを用いて実現させることを要旨とする。
Furthermore, the program of the present invention corresponding to the printing method described above is
A method of printing image after analyzing image data generated by copying a shooting target and classifying the image data into a plurality of predetermined classes based on the shooting target and then applying correction according to the classification Is a program for realizing using a computer,
A function (A) for storing correction contents to be added to the image data for each category;
A function (B) for detecting the degree of match of the image data with respect to each category by analyzing the image data;
A function (C) for correcting the degree of matching of each detected category;
A function (D) for correcting the image data by reflecting the correction content stored for each category at a rate corresponding to the corrected degree of match;
The gist is to realize a function (E) of printing an image based on the corrected image data using a computer.

また、上記のプログラムに対応する本発明の記録媒体は、
撮影対象を写すことによって生成された画像データを解析することにより、該画像デー
タを撮影対象に基づいて所定の複数の類別に分類した後、該類別に応じた補正を加えて画
像を印刷するプログラムを、コンピュータで読み取り可能にした記録媒体であって、
前記画像データに加える補正内容を、前記類別毎に記憶している機能(A)と、
前記画像データを解析することにより、該画像データの前記各類別に対する合致度を検
出する機能(B)と、
前記検出された各類別の合致度を修正する機能(C)と、
前記類別毎に記憶されている補正内容を、前記修正された合致度に応じた割合で反映さ
せることにより、前記画像データに補正を加える機能(D)と、
前記補正された画像データに基づいて画像を印刷する機能(E)と
をコンピュータを用いて実現させるプログラムを記録していることを要旨とする。
The recording medium of the present invention corresponding to the above program is
A program for analyzing image data generated by copying a shooting target, classifying the image data into a plurality of predetermined classes based on the shooting target, and then performing correction according to the class and printing an image Is a computer-readable recording medium,
A function (A) for storing correction contents to be added to the image data for each category;
A function (B) for detecting the degree of match of the image data with respect to each category by analyzing the image data;
A function (C) for correcting the degree of matching of each detected category;
A function (D) for correcting the image data by reflecting the correction content stored for each category at a rate corresponding to the corrected degree of match;
The gist of the invention is that a program for realizing a function (E) of printing an image based on the corrected image data by using a computer is recorded.

これらのプログラムをコンピュータに読み込んで、上記の各機能を実現させれば、ユー
ザーは自分の好みに合致する適切な画像補正処理を施すことが可能となる。それでいなが
ら、ユーザーは高度な画像補正処理の知識を要求されることがないので、好みに合致した
印刷画像を簡便に得ることが可能となる。
If these programs are read into a computer and the above functions are realized, the user can perform appropriate image correction processing that matches his / her preference. Nevertheless, since the user is not required to have advanced image correction processing knowledge, it is possible to easily obtain a print image that matches the preference.

以下では、上述した本願発明の内容を明確にするために、次のような順序に従って実施
例を説明する。
A.実施例の概要:
B.装置構成:
B−1.全体構成:
B−2.内部構成:
B−2−1.スキャナ部の内部構成:
B−2−2.プリンタ部の内部構成:
C.画像印刷処理:
D.画像補正処理:
E.変形例:
Hereinafter, in order to clarify the contents of the present invention described above, examples will be described in the following order.
A. Summary of Examples:
B. Device configuration:
B-1. overall structure:
B-2. Internal configuration:
B-2-1. Internal configuration of the scanner unit:
B-2-2. Internal configuration of the printer unit:
C. Image printing process:
D. Image correction processing:
E. Variation:

A.実施例の概要 :
実施例の詳細な説明に入る前に、図1を参照しながら、実施例の概要について説明して
おく。図1は、本実施例の印刷装置10の概要を示した説明図である。図示した印刷装置
10には、インク滴を吐出する印字ヘッド12が設けられており、印字ヘッド12を印刷
媒体P上で往復動させながら、インク滴を吐出してインクドットを形成することによって
画像を印刷するいわゆるインクジェットプリンタである。
A. Summary of Examples:
Prior to detailed description of the embodiment, an outline of the embodiment will be described with reference to FIG. FIG. 1 is an explanatory diagram showing an overview of a printing apparatus 10 according to the present embodiment. The illustrated printing apparatus 10 is provided with a print head 12 that ejects ink droplets, and an image is formed by ejecting ink droplets and forming ink dots while reciprocating the print head 12 on the print medium P. Is a so-called inkjet printer.

こうしたインクジェットプリンタは印刷画質が年々向上しており、高品質なカラー画像
を手軽に印刷できるようになっている。また、印刷画質をより一層改善する為に、印刷対
象となる画像データを解析し、その画像が何を撮影したものか(例えば、人物を撮影した
ものか、風景を撮影したものかなど)を判定し、撮影対象に応じて補正を加えながら印刷
をする技術が取り入れられるようになってきた。
Such ink jet printers have improved print image quality year by year, and can easily print high-quality color images. Also, in order to further improve the print image quality, the image data to be printed is analyzed, and what the image was taken (for example, a photograph of a person or a landscape) Judgment and a technique of printing while applying correction according to an object to be photographed have been introduced.

しかし、このように撮影対象に応じて画像を補正しているにも関わらず、常に好ましい
画像が得られるとは限らないという問題があった。これは、撮影対象に応じて加えるべき
補正の内容は、厳密にはユーザー毎に異なっているにも関わらず、実際には、いわば万人
向けに設定された内容で補正が行われている為と考えられる。この問題を避ける為には、
ユーザーが個々に補正内容を設定すればよいが、適切な補正内容を設定するためには、高
度な画像補正処理に関する知識が必要となるため、実際には容易なことではない。
However, there is a problem that a preferable image is not always obtained even though the image is corrected in accordance with the photographing target. This is because, although the content of correction that should be applied according to the shooting target is strictly different for each user, the correction is actually performed with the content set for everyone. it is conceivable that. To avoid this problem,
The user may set the correction contents individually, but in order to set the appropriate correction contents, knowledge about advanced image correction processing is necessary, and this is not easy in practice.

こうした状況に鑑み、図1に示した本実施例の装置10には、「補正内容記憶モジュー
ル」「合致度算出モジュール」「合致度修正モジュール」「補正内容決定モジュール」「
画像補正モジュール」「画像印刷モジュール」の各モジュールが組み込まれている。尚、
「モジュール」とは、印刷装置10が画像を印刷するために内部で行っている一連の処理
を、機能に着目して分類したものである。従って「モジュール」は、プログラムの一部と
して実現することもできるし、あるいは、特定の機能を有する論理回路を用いて実現する
こともできる。更には、これらを組み合わせることによって実現することも可能である。
In view of such a situation, the apparatus 10 of this embodiment shown in FIG. 1 includes a “correction content storage module”, “matching degree calculation module”, “matching degree correction module”, “correction content determination module”, “
Modules “image correction module” and “image printing module” are incorporated. still,
A “module” is a series of processes that are internally performed by the printing apparatus 10 for printing an image, focusing on functions. Therefore, the “module” can be realized as a part of the program, or can be realized by using a logic circuit having a specific function. Furthermore, it is also possible to realize by combining these.

図示した装置10では、画像データを受け取ると、次のように処理を行っていく。まず
、「合致度算出モジュール」では、受け取った画像データを解析することにより、複数の
類別(人物画像、風景画像など)についての、合致度を算出する。また、それぞれの類別
には、対応した補正内容が「補正内容記憶モジュール」に記憶されている。例えば、「人
物画像」に対応した補正内容は、明るさを上げて柔らかみを出すなど、画像に応じた好ま
しい印刷画像が得られる様に補正が設定されている。
In the illustrated apparatus 10, when image data is received, processing is performed as follows. First, the “matching degree calculation module” calculates the degree of matching for a plurality of categories (such as a person image and a landscape image) by analyzing the received image data. Further, for each category, the corresponding correction content is stored in the “correction content storage module”. For example, the correction content corresponding to the “person image” is set so that a preferable print image corresponding to the image can be obtained, such as increasing brightness and softening.

各類別の合致度を算出したら、次いで、「合致度修正モジュール」は、ユーザーの好み
を反映させるために各類別の合致度を修正する。こうして修正された各類別の合致度と、
「補正内容記憶モジュール」に記憶されている各類別に対応した補正内容とに基づいて、
「補正内容決定モジュール」は実際に画像に施す補正内容を決定する。補正内容を決定す
る方法は様々な方法が考えられるが、例えば、修正された合致度を重み係数として、各類
別に対応する補正内容を加算することで決定できる。この様にして決定された補正内容を
用いることで、ユーザーの好みを反映した補正処理を施すことが可能となる。
After the degree of match for each category is calculated, the “match level correction module” then corrects the level of match for each category to reflect the user's preference. The degree of match for each category modified in this way,
Based on the correction content corresponding to each type stored in the “correction content storage module”,
The “correction content determination module” determines the correction content to be actually applied to the image. Various methods can be considered for determining the correction content. For example, the correction content can be determined by adding the correction content corresponding to each class using the corrected degree of matching as a weighting factor. By using the correction content determined in this way, it is possible to perform a correction process reflecting the user's preference.

こうして補正処理が施された画像データは「画像印刷モジュール」に供給され、印字ヘ
ッド12を駆動するための信号に変換されて、印刷媒体P上に画像が印刷される。
The image data thus corrected is supplied to the “image printing module”, converted into a signal for driving the print head 12, and an image is printed on the print medium P.

ある画像を撮影対象に応じて複数の類別に分類した時、ユーザーの好みは、いずれの類
別に対する補正を重視するかという形で把握することができる。このことから、画像から
抽出された各類別の合致度をユーザーの好みに応じて修正することによって、ユーザーの
好みを反映した補正処理が施された印刷画像を得ることが可能となっている。以下では、
こうした印刷装置10について、実施例に基づいて詳しく説明する。
When a certain image is classified into a plurality of categories according to the shooting target, the user's preference can be grasped in the form of emphasizing correction for which category. From this, it is possible to obtain a print image that has been subjected to correction processing reflecting the user's preference by correcting the degree of matching of each category extracted from the image according to the user's preference. Below,
Such a printing apparatus 10 will be described in detail based on an embodiment.

B.装置構成 :
B−1.全体構成 :
図2は、本実施例の印刷装置10の外観形状を示す斜視図である。図示されるように、
本実施例の印刷装置10は、スキャナ部100と、プリンタ部200と、スキャナ部10
0およびプリンタ部200の動作を設定するための操作パネル300などから構成されて
いる。スキャナ部100は、印刷された画像を読み込んで画像データを生成するスキャナ
機能を有しており、プリンタ部200は、画像データを受け取って印刷媒体上に画像を印
刷するプリンタ機能を有している。また、スキャナ部100で読み取った画像(原稿画像
)をプリンタ部200から出力すれば、コピー機能を実現することも可能である。すなわ
ち、本実施例の印刷装置10は、単独でスキャナ機能、プリンタ機能、コピー機能を実現
可能な、いわゆるスキャナ・プリンタ・コピー複合装置(以下、SPC複合装置という)
となっている。
B. Device configuration :
B-1. overall structure :
FIG. 2 is a perspective view showing the external shape of the printing apparatus 10 according to the present embodiment. As shown,
The printing apparatus 10 of this embodiment includes a scanner unit 100, a printer unit 200, and a scanner unit 10
0, an operation panel 300 for setting the operation of the printer unit 200, and the like. The scanner unit 100 has a scanner function of reading a printed image and generating image data, and the printer unit 200 has a printer function of receiving image data and printing an image on a print medium. . Further, if an image (original image) read by the scanner unit 100 is output from the printer unit 200, a copy function can be realized. That is, the printing apparatus 10 of this embodiment is a so-called scanner / printer / copy combined apparatus (hereinafter referred to as an SPC combined apparatus) that can independently realize a scanner function, a printer function, and a copy function.
It has become.

図3は、原稿画像を読み込むために、印刷装置10の上部に設けられた原稿台カバー1
02を開いた様子を示す説明図である。図示されているように、原稿台カバー102を上
に開くと、透明な原稿台ガラス104が設けられており、その内部には、スキャナ機能を
実現するための後述する各種機構が搭載されている。原稿画像を読み込む際には、図示さ
れているように原稿台カバー102を開いて原稿台ガラス104の上に原稿画像を置き、
原稿台カバー102を閉じてから操作パネル300上のボタンを操作する。こうすれば、
原稿画像を直ちに画像データに変換することが可能である。
FIG. 3 shows a document table cover 1 provided at the top of the printing apparatus 10 for reading a document image.
It is explanatory drawing which shows a mode that 02 was opened. As shown in the drawing, when the document table cover 102 is opened upward, a transparent document table glass 104 is provided, and various mechanisms to be described later for realizing the scanner function are mounted therein. . When reading a document image, as shown in the figure, the document table cover 102 is opened and the document image is placed on the document table glass 104.
The button on the operation panel 300 is operated after the document table cover 102 is closed. This way
It is possible to immediately convert a document image into image data.

また、スキャナ部100は全体が一体のケース内に収納された構成となっており、スキ
ャナ部100とプリンタ部200とは、印刷装置10の背面側でヒンジ機構204(図4
参照)によって結合されている。このため、スキャナ部100の手前側を持ち上げること
により、ヒンジの部分でスキャナ部100のみを回転させることが可能となっている。
The scanner unit 100 is entirely housed in an integrated case, and the scanner unit 100 and the printer unit 200 are provided with a hinge mechanism 204 (FIG. 4) on the back side of the printing apparatus 10.
Reference). Therefore, by lifting the front side of the scanner unit 100, only the scanner unit 100 can be rotated at the hinge portion.

図4は、スキャナ部100の手前側を持ち上げて回転させた様子を示した斜視図である
。図示するように、本実施例の印刷装置10では、スキャナ部100の手前側を持ち上げ
ることで、プリンタ部200の上面を露出させることが可能である。プリンタ部200の
内部には、プリンタ機能を実現するための後述する各種機構や、スキャナ部100を含め
て印刷装置10全体の動作を制御するための後述する制御回路260、更には、スキャナ
部100やプリンタ部200などに電力を供給するための電源回路(図示は省略)なども
設けられている。また、図4に示されているように、プリンタ部200の上面には、開口
部202が設けられており、インクカートリッジなどの消耗品の交換や、紙詰まりの処理
、その他の軽微な修理などを簡便に行うことが可能となっている。
FIG. 4 is a perspective view illustrating a state in which the front side of the scanner unit 100 is lifted and rotated. As shown in the drawing, in the printing apparatus 10 of this embodiment, the upper surface of the printer unit 200 can be exposed by lifting the front side of the scanner unit 100. Inside the printer unit 200, various mechanisms to be described later for realizing the printer function, a control circuit 260 to be described later for controlling the operation of the entire printing apparatus 10 including the scanner unit 100, and the scanner unit 100 are further described. And a power supply circuit (not shown) for supplying power to the printer unit 200 and the like. Also, as shown in FIG. 4, an opening 202 is provided on the upper surface of the printer unit 200, and replacement of consumables such as ink cartridges, paper jam handling, and other minor repairs are performed. Can be performed easily.

B−2.内部構成 :
図5は、本実施例の印刷装置10の内部構成を概念的に示した説明図である。前述した
ように、印刷装置10にはスキャナ部100とプリンタ部200とが設けられており、ス
キャナ部100の内部にはスキャナ機能を実現するための各種構成が搭載され、プリンタ
部200の内部にはプリンタ機能を実現するための各種構成が搭載されている。以下では
、初めにスキャナ部100の内部構成について説明し、次いでプリンタ部200の内部構
成について説明する。
B-2. Internal configuration:
FIG. 5 is an explanatory diagram conceptually showing the internal configuration of the printing apparatus 10 of this embodiment. As described above, the printing apparatus 10 includes the scanner unit 100 and the printer unit 200, and various configurations for realizing the scanner function are mounted in the scanner unit 100. Is equipped with various configurations for realizing the printer function. Hereinafter, the internal configuration of the scanner unit 100 will be described first, and then the internal configuration of the printer unit 200 will be described.

B−2−1.スキャナ部の内部構成 :
スキャナ部100は、原稿画像をセットする透明な原稿台ガラス104と、セットされ
た原稿画像を押さえておくための原稿台カバー102と、セットされた原稿画像を読み込
む読取キャリッジ110と、読取キャリッジ110を読取方向(主走査方向)に移動させ
る駆動ベルト120と、駆動ベルト120に動力を供給する駆動モータ122と、読取キ
ャリッジ110の動きをガイドするガイド軸106などから構成されている。また、駆動
モータ122や読取キャリッジ110の動作は、後述する制御回路260によって制御さ
れている。
B-2-1. Internal configuration of the scanner unit:
The scanner unit 100 includes a transparent platen glass 104 on which a document image is set, a document platen cover 102 for holding the set document image, a reading carriage 110 for reading the set document image, and a reading carriage 110. The driving belt 120 is configured to move in the reading direction (main scanning direction), the driving motor 122 supplies power to the driving belt 120, the guide shaft 106 that guides the movement of the reading carriage 110, and the like. The operations of the drive motor 122 and the reading carriage 110 are controlled by a control circuit 260 described later.

制御回路260の制御の下で駆動モータ122を回転させると、駆動ベルト120を介
してその動きが読取キャリッジ110に伝達され、その結果、読取キャリッジ110は、
ガイド軸106に導かれながら駆動モータ122の回転角度に応じて読取方向(主走査方
向)に移動するようになっている。また、駆動ベルト120は、アイドラプーリ124に
よって絶えず適度に張った状態に調整されており、このため、駆動モータ122を逆回転
させれば回転角度に応じた距離だけ読取キャリッジ110を逆方向に移動させることも可
能となっている。
When the drive motor 122 is rotated under the control of the control circuit 260, the movement is transmitted to the reading carriage 110 via the driving belt 120. As a result, the reading carriage 110 is
While being guided by the guide shaft 106, it moves in the reading direction (main scanning direction) according to the rotation angle of the drive motor 122. Further, the drive belt 120 is constantly adjusted to be in a moderately tensioned state by the idler pulley 124. Therefore, if the drive motor 122 is rotated in the reverse direction, the reading carriage 110 is moved in the reverse direction by a distance corresponding to the rotation angle. It is also possible to make it.

読取キャリッジ110の内部には、光源112や、レンズ114、ミラー116、CC
Dセンサ118などが搭載されている。光源112からの光は原稿台ガラス104に照射
され、原稿台ガラス104の上にセットされた原稿画像で反射する。この反射光は、ミラ
ー116によってレンズ114に導かれ、レンズ114によって集光されてCCDセンサ
118で検出される。CCDセンサ118は、光の強度を電気信号に変換するフォトダイ
オードが、読取キャリッジ110の移動方向(主走査方向)と直交する方向に列状に配置
されたリニアセンサによって構成されている。このため、読取キャリッジ110を主走査
方向に移動させながら、光源112の光を原稿画像に照射し、CCD118によって反射
光強度を検出することで、原稿画像に対応する電気信号を得ることができる。
Inside the reading carriage 110 are a light source 112, a lens 114, a mirror 116, and a CC.
A D sensor 118 and the like are mounted. Light from the light source 112 is applied to the platen glass 104 and reflected by a document image set on the platen glass 104. This reflected light is guided to the lens 114 by the mirror 116, collected by the lens 114, and detected by the CCD sensor 118. The CCD sensor 118 is configured by a linear sensor in which photodiodes that convert light intensity into an electrical signal are arranged in a row in a direction orthogonal to the moving direction (main scanning direction) of the reading carriage 110. Therefore, by moving the reading carriage 110 in the main scanning direction and irradiating the original image with light from the light source 112 and detecting the reflected light intensity by the CCD 118, an electrical signal corresponding to the original image can be obtained.

また、光源112は、RGBの3色の発光ダイオードによって構成されており、所定の
周期でR色、G色、B色の光を順次、照射することが可能となっており、これに応じてC
CD118では、R色、G色、B色の反射光が順次、検出されるようになっている。一般
に、画像の赤色の部分はR色の光を反射するが、G色やB色の光はほとんど反射しないか
ら、R色の反射光は画像のR成分を表している。同様に、G色の反射光は画像のG成分を
表しており、B色の反射光は画像のB成分を表している。従って、RGB3色の光を所定
の周期で切り替えながら原稿画像に照射し、これに同期してCCD118で反射光強度を
検出すれば、原稿画像のR成分、G成分、B成分を検出することができ、カラー画像を読
み込むことが可能となっている。尚、光源112が照射する光の色を切り替えている間も
読取キャリッジ110は移動しているから、RGBの各成分を検出する画像の位置は、厳
密には、読取キャリッジ110の移動量に相当する分だけ異なっているが、このずれは、
各成分を読み込んだ後に、画像処理によって補正することが可能である。
The light source 112 is composed of light emitting diodes of three colors of RGB, and can sequentially irradiate light of R color, G color, and B color at a predetermined cycle. C
In CD118, the reflected light of R color, G color, and B color is detected sequentially. In general, the red portion of the image reflects R light, but hardly reflects G or B light, so the R reflected light represents the R component of the image. Similarly, the reflected light of G color represents the G component of the image, and the reflected light of B color represents the B component of the image. Accordingly, if the original image is irradiated while switching light of RGB three colors at a predetermined period and the reflected light intensity is detected by the CCD 118 in synchronization with this, the R component, G component, and B component of the original image can be detected. It is possible to read a color image. Note that since the reading carriage 110 is moved even while the color of light emitted from the light source 112 is switched, the position of the image for detecting each component of RGB corresponds to the movement amount of the reading carriage 110 strictly. The difference is as much as
After reading each component, it can be corrected by image processing.

B−2−2.プリンタ部の内部構成 :
次に、プリンタ部200の内部構成について説明する。プリンタ部200には、印刷装
置10の全体の動作を制御する制御回路260と、印刷媒体上に画像を印刷するための印
刷キャリッジ240と、印刷キャリッジ240を主走査方向に移動させる機構と、印刷媒
体の紙送りを行うための機構などが搭載されている。
B-2-2. Internal configuration of the printer unit:
Next, the internal configuration of the printer unit 200 will be described. The printer unit 200 includes a control circuit 260 that controls the overall operation of the printing apparatus 10, a print carriage 240 that prints an image on a print medium, a mechanism that moves the print carriage 240 in the main scanning direction, and printing. A mechanism for feeding media is mounted.

印刷キャリッジ240は、Kインクを収納するインクカートリッジ242と、Cインク
、Mインク、Yインクの各種インクを収納するインクカートリッジ243と、底面側に設
けられた印字ヘッド241などから構成されており、印字ヘッド241には、インク滴を
吐出するインク吐出ヘッドがインク毎に設けられている。印刷キャリッジ240にインク
カートリッジ242,243を装着すると、カートリッジ内の各インクは図示しない導入
管を通じて、各色のインク吐出ヘッド244ないし247に供給される。
The print carriage 240 includes an ink cartridge 242 that stores K ink, an ink cartridge 243 that stores various inks of C ink, M ink, and Y ink, a print head 241 provided on the bottom surface side, and the like. The print head 241 is provided with an ink discharge head for discharging ink droplets for each ink. When the ink cartridges 242 and 243 are mounted on the print carriage 240, each ink in the cartridge is supplied to the ink discharge heads 244 to 247 of each color through an introduction pipe (not shown).

印刷キャリッジ240を主走査方向に移動させる機構は、印刷キャリッジ240を駆動
するためのキャリッジベルト231と、キャリッジベルト231に動力を供給するキャリ
ッジモータ230と、キャリッジベルト231に絶えず適度な張力を付与しておくための
張力プーリ232と、印刷キャリッジ240の動きをガイドするキャリッジガイド233
と、印刷キャリッジ240の原点位置を検出する原点位置センサ234などから構成され
ている。後述する制御回路260の制御の下でキャリッジモータ230を回転させると、
回転角度に応じた距離だけ印刷キャリッジ240を主走査方向に移動させることが可能で
ある。また、キャリッジモータ230を逆回転させれば、印刷キャリッジ240を逆方向
に移動させることも可能となっている。
The mechanism that moves the print carriage 240 in the main scanning direction includes a carriage belt 231 for driving the print carriage 240, a carriage motor 230 that supplies power to the carriage belt 231, and an appropriate tension is constantly applied to the carriage belt 231. Tension pulley 232 for holding the carriage, and carriage guide 233 for guiding the movement of the print carriage 240
And an origin position sensor 234 for detecting the origin position of the print carriage 240. When the carriage motor 230 is rotated under the control of the control circuit 260 described later,
The print carriage 240 can be moved in the main scanning direction by a distance corresponding to the rotation angle. Further, if the carriage motor 230 is rotated in the reverse direction, the print carriage 240 can be moved in the reverse direction.

印刷媒体の紙送りを行うための機構は、印刷媒体を裏面側から支えるプラテン236と
、プラテン236を回転させて紙送りを行う紙送りモータ235などから構成されている
。後述する制御回路260の制御の下で紙送りモータ235を回転させることで、回転角
度に応じた距離だけ印刷媒体を副走査方向に紙送りすることが可能となっている。
The mechanism for feeding the print medium includes a platen 236 that supports the print medium from the back side, a paper feed motor 235 that feeds the paper by rotating the platen 236, and the like. By rotating the paper feed motor 235 under the control of the control circuit 260 described later, the print medium can be fed in the sub-scanning direction by a distance corresponding to the rotation angle.

制御回路260は、CPUを中心として、ROMや、RAM、デジタルデータをアナロ
グ信号に変換するD/A変換器、更には、周辺機器との間でデータのやり取りを行うため
の周辺機器インターフェースPIFなどから構成されている。制御回路260は、印刷装
置10全体の動作を制御しており、スキャナ部100に搭載された光源112や、駆動モ
ータ122、CCD118とデータをやり取りしながら、これらの動作を制御している。
The control circuit 260 has a CPU, a ROM, a RAM, a D / A converter that converts digital data into an analog signal, and a peripheral device interface PIF for exchanging data with peripheral devices. It is composed of The control circuit 260 controls the overall operation of the printing apparatus 10, and controls these operations while exchanging data with the light source 112, the drive motor 122, and the CCD 118 mounted on the scanner unit 100.

また、制御回路260は、キャリッジモータ230および紙送りモータ235を駆動し
て印刷キャリッジ240の主走査および副走査を行いながら、各色のインク吐出ヘッド2
44ないし247に駆動信号を供給してインク滴を吐出させる制御も行っている。インク
吐出ヘッド244ないし247に供給する駆動信号は、コンピュータ30や、デジタルカ
メラ20、外部記憶装置32などから画像データを読み込んで、後述する画像処理を行う
ことによって生成する。もちろん、スキャナ部100で読み込んだ画像データに画像処理
を施すことにより、駆動信号を生成することも可能である。こうして制御回路260の制
御の下で、印刷キャリッジ240を主走査および副走査させながら、インク吐出ヘッド2
44ないし247からインク滴を吐出して印刷媒体上に各色のインクドットを形成するこ
とによって、カラー画像を印刷することが可能となっている。もちろん、制御回路260
内で画像処理を行うのではなく、画像処理が施されたデータをコンピュータ20から受け
取って、このデータに従って印刷キャリッジ240の主走査および副走査を行いながらイ
ンク吐出ヘッド244ないし247を駆動することも可能である。
The control circuit 260 drives the carriage motor 230 and the paper feed motor 235 to perform main scanning and sub-scanning of the print carriage 240, and the ink ejection head 2 for each color.
Control is also performed to supply ink to 44 to 247 to eject ink droplets. The drive signals supplied to the ink ejection heads 244 to 247 are generated by reading image data from the computer 30, the digital camera 20, the external storage device 32, etc., and performing image processing to be described later. Of course, it is also possible to generate a drive signal by performing image processing on the image data read by the scanner unit 100. In this way, under the control of the control circuit 260, the ink ejection head 2 is moved while the print carriage 240 is being subjected to main scanning and sub scanning.
A color image can be printed by ejecting ink droplets from 44 to 247 to form ink dots of respective colors on the print medium. Of course, the control circuit 260
Instead of performing image processing in the printer, the ink ejection heads 244 to 247 may be driven while performing main scanning and sub-scanning of the print carriage 240 in accordance with this data after receiving the image-processed data from the computer 20. Is possible.

また、制御回路260は、操作パネル300ともデータをやり取り可能に接続されてお
り、操作パネル300上に設けられた各種のボタンを操作することにより、スキャナ機能
や、プリンタ機能の詳細な動作モードを設定することが可能となっている。更には、コン
ピュータ20から、周辺機器インターフェースPIFを介して詳細な動作モードを設定す
ることも可能である。
The control circuit 260 is also connected to the operation panel 300 so as to exchange data. By operating various buttons provided on the operation panel 300, detailed operation modes of the scanner function and the printer function are set. It is possible to set. Further, it is possible to set a detailed operation mode from the computer 20 via the peripheral device interface PIF.

図6は、各色のインク吐出ヘッド244ないし247に、インク滴を吐出する複数のノ
ズルNzが形成されている様子を示した説明図である。図示するように、各色のインク吐
出ヘッドの底面には、各色のインク滴を吐出する4組のノズル列が形成されており、1の
ノズル列には、48個のノズルNzがノズルピッチkの間隔を空けて千鳥状に配列されて
いる。制御回路260からは、これらノズルNzのそれぞれに駆動信号が供給され、各ノ
ズルNzは駆動信号に従って、それぞれのインクによるインク滴を吐出するようになって
いる。
FIG. 6 is an explanatory diagram showing a state in which a plurality of nozzles Nz for ejecting ink droplets are formed on the ink ejection heads 244 to 247 for each color. As shown in the figure, four sets of nozzle rows for ejecting ink droplets of each color are formed on the bottom surface of the ink ejection head for each color, and 48 nozzles Nz have a nozzle pitch k in one nozzle row. They are arranged in a staggered pattern at intervals. A drive signal is supplied from the control circuit 260 to each of these nozzles Nz, and each nozzle Nz discharges an ink droplet of each ink according to the drive signal.

以上に説明したように、印刷装置10のプリンタ部200は、インク吐出ノズルに駆動
信号を供給し、駆動信号に従ってインク滴を吐出して印刷媒体上にインクドットを形成す
ることによって画像を印刷している。また、インク吐出ノズルを駆動するための制御デー
タは、画像の印刷に先立って、画像データに所定の画像処理を施すことによって生成して
いる。以下では、画像データに画像処理を施して制御データを生成し、得られた制御デー
タに基づいてインクドットを形成することにより画像を印刷する処理について説明する。
As described above, the printer unit 200 of the printing apparatus 10 prints an image by supplying drive signals to the ink discharge nozzles and discharging ink droplets according to the drive signals to form ink dots on the print medium. ing. Control data for driving the ink discharge nozzles is generated by performing predetermined image processing on the image data prior to image printing. Hereinafter, a process of printing an image by performing image processing on the image data to generate control data and forming ink dots based on the obtained control data will be described.

C.画像印刷処理 :
図7は、プリンタドライバが印刷を実行する処理(画像印刷処理)の流れを示すフロー
チャートである。かかる処理は、印刷装置10に搭載された制御回路260が、内蔵した
CPUやRAM、ROMなどの機能を用いて実行する処理である。以下、図7に示すフロ
ーチャートに従って説明する。
C. Image printing process:
FIG. 7 is a flowchart showing a flow of processing (image printing processing) in which the printer driver executes printing. Such a process is a process executed by the control circuit 260 mounted on the printing apparatus 10 using functions such as a built-in CPU, RAM, and ROM. Hereinafter, a description will be given according to the flowchart shown in FIG.

図7に示されている様に、画像印刷処理を開始すると、先ずはじめに、画像データの読
み込みを行う(ステップS100)。ここでは、画像データはR,G,B各色の階調値に
よって表現されたRGB画像データであるものとする。
As shown in FIG. 7, when the image printing process is started, first, image data is read (step S100). Here, it is assumed that the image data is RGB image data expressed by gradation values of R, G, and B colors.

次いで、読み込んだ画像データを、好ましい印刷品質が得られるように補正をする処理
(画像補正処理)を行う(ステップS102)。一般的な印刷装置で行われる補正処理で
は、画像に写った対象(例えば、人物か、風景か等)に応じて、より好ましい画像が得ら
れるように補正が行われている。こうした補正処理では、補正の内容はあらかじめ印刷装
置に記憶されており、ユーザーは画像補正の高度な知識がなくとも、好ましい画像を簡便
に得ることができる。しかし、その一方で、こうして得られた画像が、常にユーザーの好
みに完全に合致したものになっているかというと、必ずしもそうとは言えない場合も生じ
ていた。例えば、風景をバックに人物を撮影した画像の場合、人物を重視した補正を好ま
しいと思うユーザーもいれば、風景を重視した補正を好ましいと思うユーザーもいる。こ
うした場合、あらかじめ印刷装置に記憶されていた補正内容を用いては、個々のユーザー
の好みに沿った補正をすることができない。そこで、本実施例の画像補正処理では、特別
な補正処理を行うことにより、ユーザーの好みにより合致した画像を印刷することを可能
としている。
Next, a process for correcting the read image data so as to obtain a preferable print quality (image correction process) is performed (step S102). In a correction process performed in a general printing apparatus, correction is performed so that a more preferable image is obtained according to an object (for example, a person or a landscape) captured in an image. In such correction processing, the content of correction is stored in the printing apparatus in advance, and the user can easily obtain a preferable image without advanced knowledge of image correction. However, on the other hand, it has not always been said that the image obtained in this way always matches the user's preference completely. For example, in the case of an image in which a person is photographed against a landscape, there are users who prefer correction that emphasizes the person, and other users who prefer correction that emphasizes the landscape. In such a case, it is not possible to make corrections according to individual user's preferences using the correction contents stored in advance in the printing apparatus. Therefore, in the image correction process of this embodiment, it is possible to print an image that matches the user's preference by performing a special correction process.

画像補正処理の次には、画像データの解像度を、プリンタ部200が印刷するための解
像度(印刷解像度)に変換する処理を行う(ステップS104)。読み込んだ画像データ
の解像度が印刷解像度よりも低い場合は、隣接する画素の間に補間演算を行って新たな画
像データを設定することで、より高い解像度に変換する。逆に、読み込んだ画像データの
解像度が印刷解像度よりも高い場合は、隣接する画素の間から一定の割合で画像データを
間引くことによって、より低い解像度に変換する。解像度変換処理では、読み込んだ画像
データに対して適切な割合で画像データを生成あるいは間引くことによって、読み込んだ
解像度を印刷解像度に変換する処理を行う。
Following the image correction process, a process of converting the resolution of the image data to a resolution (printing resolution) for printing by the printer unit 200 is performed (step S104). When the resolution of the read image data is lower than the print resolution, the image data is converted to a higher resolution by performing interpolation calculation between adjacent pixels and setting new image data. On the other hand, when the resolution of the read image data is higher than the print resolution, the image data is converted to a lower resolution by thinning out the image data at a constant rate from between adjacent pixels. In the resolution conversion process, the read resolution is converted into the print resolution by generating or thinning out the image data at an appropriate ratio with respect to the read image data.

続いて、印刷装置10の制御回路260は、画像データに対して色変換処理を行う(ス
テップS106)。ここで色変換処理とは、R,G,Bの各色で表現された画像データを
、C,M,Y,K各色の階調値によって表現された画像データに変換する処理である。色
変換処理は、色変換テーブル(LUT)と呼ばれる3次元の数表を参照することによって
行う。
Subsequently, the control circuit 260 of the printing apparatus 10 performs color conversion processing on the image data (step S106). Here, the color conversion process is a process of converting image data expressed in R, G, and B colors into image data expressed by gradation values of C, M, Y, and K colors. The color conversion process is performed by referring to a three-dimensional numerical table called a color conversion table (LUT).

図8は、色変換処理のために参照される色変換テーブル(LUT)を概念的に示した説
明図である。今、RGB各色の階調値が0〜255の値を取り得るものとする。また、図
8に示すように、直交する3軸にR,G,B各色の階調値を取った色空間を考えると、全
てのRGB画像データは、原点を頂点として一辺の長さが255の立方体(色立体)の内
部の点に対応付けることができる。これを、見方を変えれば、次のように考えることもで
きる。すなわち、色立体をRGB各軸に直角に格子状に細分して色空間内に複数の格子点
を生成すると、各格子点はRGB画像データを表していると考えることができる。そこで
、各格子点に、C,M,Y,Kの階調値の組合せを予め記憶しておけば、格子点に記憶さ
れている階調値を読み出すことで、RGB画像データを、各色の階調値によって表現され
た画像データ(CMYK画像データ)に変換することが可能となる。
FIG. 8 is an explanatory diagram conceptually showing a color conversion table (LUT) referred to for color conversion processing. Now, it is assumed that gradation values of RGB colors can take values from 0 to 255. Further, as shown in FIG. 8, when considering a color space in which gradation values of R, G, and B are taken on three orthogonal axes, all RGB image data have a side length of 255 with the origin at the apex. Can be associated with points inside the cube (color solid). From a different perspective, this can be thought of as follows. That is, if a color solid is subdivided into a grid perpendicular to the RGB axes and a plurality of grid points are generated in the color space, each grid point can be considered to represent RGB image data. Therefore, if a combination of C, M, Y, and K gradation values is stored in advance in each grid point, the RGB image data can be converted into each color by reading the gradation value stored in the grid point. It is possible to convert the image data (CMYK image data) represented by the gradation value.

例えば、画像データのR成分がRA、G成分がGA、B成分がBAであったとすると、
この画像データは、色空間内のA点に対応づけられる(図8参照)。そこで、色立体を格
子状に細分する小さな立方体の中から、A点を内包する立方体dVを検出し、この立方体
dVの各格子点に記憶されているCMYK各色の階調値を読み出してやる。そして、これ
ら各格子点の階調値から補間演算すればA点での階調値を求めることができる。以上に説
明したように、色変換テーブルLUTとは、RGB各色の階調値の組合せで示される各格
子点に、CMYK各色の階調値の組合せ(CMYK画像データ)を記憶した3次元の数表
と考えることができ、色変換テーブルを参照すれば、RGB画像データをCMYK画像デ
ータに、迅速に色変換することが可能となる。
For example, if the R component of the image data is RA, the G component is GA, and the B component is BA,
This image data is associated with point A in the color space (see FIG. 8). Therefore, a cube dV containing point A is detected from small cubes that subdivide the color solid into a lattice shape, and the gradation values of the CMYK colors stored in the lattice points of the cube dV are read out. Then, if the interpolation calculation is performed from the gradation values of these grid points, the gradation value at the point A can be obtained. As described above, the color conversion table LUT is a three-dimensional number in which a combination of gradation values of CMYK colors (CMYK image data) is stored at each grid point indicated by a combination of gradation values of RGB colors. It can be considered as a table, and by referring to the color conversion table, RGB image data can be quickly converted into CMYK image data.

制御回路260は、以上のようにして色変換処理を終了すると、ハーフトーン処理を開
始する(図7のステップS108)。ハーフトーン処理とは、次のような処理である。色
変換処理によって得られたCMYK画像データは、C,M,Y,Kの各色について階調値
0〜階調値255の範囲で表現された画像データである。これに対してプリンタ部200
は、ドットを形成することによって画像を印刷するから、256階調によって表現された
CMYK画像データを、ドットの形成有無によって表現された画像データ(ドットデータ
)に変換する処理が必要となる。ハーフトーン処理とは、このようにCMYK各色の画像
データをドットデータに変換する処理である。
When the color conversion process is completed as described above, the control circuit 260 starts the halftone process (step S108 in FIG. 7). Halftone processing is the following processing. The CMYK image data obtained by the color conversion process is image data expressed in the range of gradation value 0 to gradation value 255 for each color of C, M, Y, and K. In contrast, the printer unit 200
Since an image is printed by forming dots, it is necessary to convert CMYK image data expressed by 256 gradations into image data (dot data) expressed by the presence or absence of dot formation. Halftone processing is processing for converting image data of CMYK colors into dot data in this way.

ハーフトーン処理を行う手法としては、誤差拡散法やディザ法などの種々の手法を適用
することができる。誤差拡散法は、ある画素についてドットの形成有無を判断したことで
その画素に発生する階調表現の誤差を、周辺の画素に拡散するとともに、周囲から拡散さ
れてきた誤差を解消するように、各画素についてのドット形成の有無を判断していく手法
である。また、ディザ法は、ディザマトリックスにランダムに設定されている閾値とCM
YK各色の画像データとを画素毎に比較して、画像データの方が大きい画素にはドットを
形成すると判断し、逆に閾値の方が大きい画素についてはドットを形成しないと判断する
ことで、各画素についてのドットデータを得る手法である。ハーフトーン手法としては、
誤差拡散法またはディザ法の何れの手法を用いることも可能であるが、本実施例の印刷装
置10では、ディザ法を用いてハーフトーン処理を行うものとする。
As a method for performing the halftone process, various methods such as an error diffusion method and a dither method can be applied. The error diffusion method is to determine whether or not dots are formed for a certain pixel, so that the error in gradation expression that occurs in that pixel is diffused to the surrounding pixels and the error diffused from the surroundings is eliminated. This is a method of determining the presence or absence of dot formation for each pixel. Also, the dither method uses a threshold value and CM that are randomly set in the dither matrix.
Comparing the image data of each color of YK for each pixel, it is determined that a dot is formed for a pixel having a larger image data, and conversely, a dot is not formed for a pixel having a larger threshold value. This is a technique for obtaining dot data for each pixel. As a halftone method,
Either the error diffusion method or the dither method can be used, but the printing apparatus 10 of this embodiment performs the halftone process using the dither method.

図9は、ディザマトリックスの一部を拡大して例示した説明図である。図示したマトリ
ックスには、縦横それぞれ64画素、合計4096個の画素に、階調値0〜255の範囲
から万遍なく選択された閾値がランダムに記憶されている。ここで、閾値の階調値が0〜
255の範囲から選択されているのは、本実施例ではCMYK各色の画像データが1バイ
トデータであり、階調値が0〜255の値を取り得ることに対応するものである。尚、デ
ィザマトリックスの大きさは、図9に例示したように縦横64画素分に限られるものでは
なく、縦と横の画素数が異なるものも含めて、種々の大きさに設定することが可能である
FIG. 9 is an explanatory diagram illustrating an enlarged part of the dither matrix. In the illustrated matrix, threshold values that are uniformly selected from the range of gradation values 0 to 255 are randomly stored in a total of 4096 pixels, 64 pixels in the vertical and horizontal directions. Here, the gradation value of the threshold is 0 to
In the present embodiment, the selection from the range of 255 corresponds to the fact that the image data of each color of CMYK is 1-byte data and the gradation value can take a value from 0 to 255. Note that the size of the dither matrix is not limited to 64 pixels in the vertical and horizontal directions as illustrated in FIG. 9, and can be set to various sizes including those having different numbers of vertical and horizontal pixels. It is.

図10は、ディザマトリックスを参照しながら、画素毎にドット形成の有無を判断して
いる様子を概念的に示した説明図である。尚、かかる判断は、CMYKの各色について行
われるが、以下では説明が煩雑となることを避けるために、CMYK各色の画像データを
区別することなく、単に画像データと称するものとする。
FIG. 10 is an explanatory diagram conceptually showing a state in which the presence / absence of dot formation is determined for each pixel while referring to the dither matrix. This determination is made for each color of CMYK, but in the following, in order to avoid complicated explanation, image data of each color of CMYK is simply referred to as image data without being distinguished.

ドット形成有無の判断に際しては、先ず、判断の対象として着目している画素(着目画
素)についての画像データの階調値と、ディザマトリックス中の対応する位置に記憶され
ている閾値とを比較する。図中に示した細い破線の矢印は、着目画素の画像データを、デ
ィザマトリックス中の対応する位置に記憶されている閾値と比較していることを模式的に
表したものである。そして、ディザマトリックスの閾値よりも着目画素の画像データの方
が大きい場合には、その画素にはドットを形成するものと判断する。逆に、ディザマトリ
ックスの閾値の方が大きい場合には、その画素にはドットを形成しないものと判断する。
図10に示した例では、画像の左上隅にある画素の画像データは「97」であり、ディザ
マトリックス上でこの画素に対応する位置に記憶されている閾値は「1」である。従って
、左上隅の画素については、画像データの方がディザマトリックスの閾値よりも大きいか
ら、この画素にはドットを形成すると判断する。図10中に実線で示した矢印は、この画
素にはドットを形成すると判断して、判断結果をメモリに書き込んでいる様子を模式的に
表したものである。
When determining the presence or absence of dot formation, first, the gradation value of the image data for the pixel of interest (the pixel of interest) as the object of determination is compared with the threshold value stored at the corresponding position in the dither matrix. . The thin broken arrow shown in the figure schematically represents that the image data of the pixel of interest is compared with the threshold value stored at the corresponding position in the dither matrix. If the image data of the pixel of interest is larger than the threshold value of the dither matrix, it is determined that a dot is formed for that pixel. On the contrary, when the threshold value of the dither matrix is larger, it is determined that no dot is formed in the pixel.
In the example shown in FIG. 10, the image data of the pixel at the upper left corner of the image is “97”, and the threshold value stored at the position corresponding to this pixel on the dither matrix is “1”. Accordingly, for the pixel at the upper left corner, the image data is larger than the threshold value of the dither matrix, and therefore it is determined that a dot is formed on this pixel. An arrow indicated by a solid line in FIG. 10 schematically represents a state in which it is determined that a dot is to be formed in this pixel and the determination result is written in the memory.

一方、この画素の右隣の画素については、画像データは「97」、ディザマトリックス
の閾値は「177」であり、閾値の方が大きいので、この画素についてはドットを形成し
ないものと判断する。このように、画像データとディザマトリックスに設定された閾値と
を比較することにより、ドットの形成有無を画素毎に決定することができる。ハーフトー
ン処理(図7のステップS108)では、C,M,Y,Kの各色の画像データに対して上
述したディザ法を適用することにより、画素毎にドット形成の有無を判断してドットデー
タを生成する処理を行う。
On the other hand, for the pixel on the right side of this pixel, the image data is “97”, and the threshold value of the dither matrix is “177”. Since the threshold value is larger, it is determined that no dot is formed for this pixel. Thus, by comparing the image data with the threshold value set in the dither matrix, it is possible to determine whether or not dots are formed for each pixel. In the halftone process (step S108 in FIG. 7), by applying the above-described dither method to the image data of each color of C, M, Y, and K, the dot data is determined for each pixel to determine dot data. Process to generate.

図7に示すように、画像印刷処理では、ハーフトーン処理を行ってCMYK各色につい
てのドットデータを生成したら、今度は、インターレース処理を開始する(ステップS1
10)。インターレース処理とは、印字ヘッド241がドットを形成する順序でドットデ
ータを並び替えて、各色のインク吐出ヘッド244ないし247に供給する処理である。
すなわち、図6に示したように、インク吐出ヘッド244ないし247に設けられたノズ
ルNzは副走査方向にノズルピッチkの間隔を空けて設けられているから、印刷キャリッ
ジ240を主走査させながらインク滴を吐出すると、副走査方向にノズルピッチkの間隔
を空けてドットが形成されてしまう。そこで全画素にドットを形成するためには、印刷キ
ャリッジ240と印刷媒体との相対位置を副走査方向に移動させて、ノズルピッチkだけ
隔たったドット間の画素に新たなドットを形成することが必要となる。このように、実際
に画像を印刷する場合には、画像上で上方にある画素から順番にドットを形成しているわ
けではない。更に、主走査方向に同じ列にある画素についても、一回の主走査でドットを
形成するのではなく、画質上の要請から、複数回の主走査に分けてドットを形成すること
として、各回の主走査では飛び飛びの位置の画素にドットを形成することも広く行われて
いる。
As shown in FIG. 7, in the image printing process, when halftone processing is performed to generate dot data for each color of CMYK, interlace processing is started (step S1).
10). The interlace process is a process in which the print head 241 rearranges the dot data in the order in which dots are formed and supplies them to the ink discharge heads 244 to 247 for each color.
That is, as shown in FIG. 6, the nozzles Nz provided in the ink discharge heads 244 to 247 are provided with an interval of the nozzle pitch k in the sub-scanning direction. When droplets are ejected, dots are formed at intervals of the nozzle pitch k in the sub-scanning direction. Therefore, in order to form dots in all the pixels, the relative position between the print carriage 240 and the print medium is moved in the sub-scanning direction, and new dots are formed in the pixels between the dots separated by the nozzle pitch k. Necessary. As described above, when an image is actually printed, dots are not formed in order from the upper pixel on the image. Furthermore, for pixels in the same row in the main scanning direction, instead of forming dots in a single main scan, the dots are divided into a plurality of main scans in response to image quality requirements. In this main scanning, dots are also widely formed on the pixels at the skipped positions.

このため、実際にドットの形成を開始するに先立って、C,M,Y,Kの各色について
得られたドットデータを、インク吐出ヘッド244ないし247がドットを形成する順番
に並び替えておく処理が必要となる。このような処理が、インターレースと呼ばれる処理
である。
For this reason, prior to actually starting dot formation, the dot data obtained for each color of C, M, Y, and K is rearranged in the order in which the ink ejection heads 244 to 247 form dots. Is required. Such a process is a process called interlace.

図7に示したように、インターレース処理を終了すると、インターレース処理によって
並べ替えられたドットデータに従って、実際に印刷媒体上にドットを形成する処理(ドッ
ト形成処理)を開始する(ステップS112)。すなわち、キャリッジモータ230を駆
動して印刷キャリッジ240を主走査させながら、順番を並び替えておいたドットデータ
をインク吐出ヘッド244ないし247に供給する。その結果、インク吐出ヘッド244
ないし247からは、ドットデータに従ってインク滴が吐出されて、各画素に適切にドッ
トが形成される。
As shown in FIG. 7, when the interlacing process is completed, a process for actually forming dots on the print medium (dot forming process) is started according to the dot data rearranged by the interlace process (step S112). That is, while the carriage motor 230 is driven to cause the print carriage 240 to perform main scanning, the rearranged dot data is supplied to the ink ejection heads 244 to 247. As a result, the ink discharge head 244
From 247 to 247, ink droplets are ejected according to the dot data, and dots are appropriately formed in each pixel.

そして、一回の主走査が終了したら、今度は、紙送りモータ235を駆動して印刷媒体
を副走査方向に紙送りした後、再びキャリッジモータ230を駆動して印刷キャリッジ2
40を主走査させつつ、順番を並べ替えておいたドットデータをインク吐出ヘッド244
ないし247に供給してドットを形成する。このような操作を繰り返し行うことにより、
印刷媒体上には、C,M,Y,Kの各色のドットが画像データの階調値に応じて適切な分
布で形成され、その結果として画像が印刷される。
When one main scan is completed, the paper feed motor 235 is driven to feed the print medium in the sub-scanning direction, and then the carriage motor 230 is driven again to print the print carriage 2.
40. The ink discharge head 244 converts the dot data rearranged in the order of 40 to the main scanning.
To 247 to form dots. By repeating these operations,
On the print medium, dots of each color of C, M, Y, and K are formed with an appropriate distribution according to the gradation value of the image data, and as a result, the image is printed.

以上に説明した画像印刷処理では、好ましい印刷画像が得られる様に、画像データに補
正を加えてから画像を印刷している。もっとも、ユーザーの好みは多岐に亘るため、全て
のユーザーの好みに合致するような補正を行うことは困難である。かと言って、個々のユ
ーザーが自らの好みに合わせて補正内様を設定するには、高度な知識が必要なので、こう
したことも現実的ではない。そこで、本実施例の画像印刷処理では、以下のような画像補
正処理を行うことにより、個々のユーザーが自らの好みに合致した補正を簡単に行うこと
を可能としている。
In the image printing process described above, the image is printed after correcting the image data so that a preferable print image can be obtained. However, since user preferences vary, it is difficult to make corrections that match all user preferences. That said, it is not realistic because individual users need advanced knowledge to set the correction scheme according to their preferences. Therefore, in the image printing process of the present embodiment, the following image correction process is performed, so that each user can easily perform a correction that matches his / her preference.

D.画像補正処理 :
本実施例の画像印刷処理中で行われている画像補正処理について説明する準備として、
一般的に行われている画像補正について簡単に説明しておく。画像に加える補正の内容は
、実際には、画像に写っている対象に応じて異なっていることが通常である。例えば、風
景を撮影した画像の場合、鮮やかでくっきりとした画像が好まれるので、コントラストお
よびシャープネスを上げる一方で、これによる影響を緩和する意味から、明度をやや下げ
る処理が行われる。これに対して人物を撮影した画像の場合には、明るく柔らかな印象の
画像が好まれるので、明度を上げると共にシャープネスを下げる補正が行われる。このよ
うに、画像に加える補正の内容は、撮影対象に応じて異なっている。とは言うものの、補
正の項目(すなわち、明度、コントラスト、シャープネスなど)については、撮影対象に
依らず共通していることが通常である。そこで、基本的な補正要素である明度、コントラ
スト、シャープネスの3つの要素を成分とする補正ベクトルを定義することにより、補正
内容をひとまとめにして取り扱うことができる。
D. Image correction processing:
As preparation for explaining the image correction processing performed in the image printing processing of the present embodiment,
The image correction that is generally performed will be briefly described. In general, the content of correction to be applied to an image is usually different depending on the object in the image. For example, in the case of an image of a landscape, a vivid and clear image is preferred, so that a process for slightly reducing the brightness is performed in order to increase the contrast and sharpness while mitigating the influence of this. On the other hand, in the case of an image in which a person is photographed, a bright and soft impression image is preferred. Therefore, correction for increasing the brightness and decreasing the sharpness is performed. As described above, the content of the correction applied to the image differs depending on the subject to be photographed. Nevertheless, correction items (that is, brightness, contrast, sharpness, etc.) are usually the same regardless of the subject. Therefore, by defining a correction vector whose components are the basic correction elements of brightness, contrast, and sharpness, the correction contents can be handled together.

図11には、明度、コントラスト、シャープネスの3つの補正係数を各成分として、補
正ベクトルが定義されている様子を表している。また、このような補正ベクトルを用いる
ことにより、撮影対象に応じた補正内容を補正ベクトルによって表現することができる。
図12には、人物を撮影した画像に対する補正ベクトル(人物用補正ベクトル)と、風景
を撮影した画像に対する補正ベクトル(風景用補正ベクトル)とが例示されている。この
ように、撮影対象に応じて設定されている補正ベクトルに基づいて画像を補正することで
、撮影対象に応じた好ましい画像にするという処理方法が、近年の画像印刷装置では用い
られるようになってきた。本実施例の画像補正処理では、このような画像補正を更に発展
させることによって、ユーザーの好みの違いにも柔軟に対応して、より一層好ましい画像
を印刷することを可能としている。
FIG. 11 shows a state where a correction vector is defined using three correction coefficients of brightness, contrast, and sharpness as components. Further, by using such a correction vector, it is possible to express the correction content according to the object to be photographed by the correction vector.
FIG. 12 illustrates a correction vector (person correction vector) for an image obtained by photographing a person and a correction vector (landscape correction vector) for an image obtained by photographing a landscape. As described above, a processing method of correcting a picture based on a correction vector set according to a shooting target to obtain a preferable image according to the shooting target has been used in recent image printing apparatuses. I came. In the image correction processing of this embodiment, by further developing such image correction, it is possible to print a more preferable image while flexibly responding to differences in user preferences.

図13は、本実施例の画像補正処理の流れを示すフローチャートである。このフローチ
ャートに示されている様に、画像補正処理では、先ず始めに、「人物画像度」を算出する
処理を行う(ステップS200)。ここで「人物画像度」とは、その画像にどの程度人物
が写っているのかを数値化したものであり、例えば、人物が写っている部分の面積の、画
像全体に占める割合などを人物画像度として用いることができる。この様な人物画像度を
算出するには、例えば、画像データの中から肌色の部分を探し出し、その部分には人物が
写っているものとみなして面積を求め、その面積が画像全体に占める割合を人物画像度と
して算出するといった方法をとることができる。
FIG. 13 is a flowchart showing the flow of image correction processing of this embodiment. As shown in this flowchart, in the image correction process, first, a process of calculating a “person image degree” is performed (step S200). Here, the “person image degree” is a numerical value of how much a person is reflected in the image. For example, the ratio of the area of the portion where the person is captured to the entire image is represented by the person image. Can be used as a degree. In order to calculate such a person image degree, for example, a skin-colored part is searched from the image data, an area is obtained by assuming that the person is reflected in the part, and the ratio of the area to the entire image Can be taken as the degree of person image.

あるいは、単純な面積の割合を人物画像度として利用する方法の他に、人物が写ってい
る部分を次のような方法で検出することで、検出する際の確からしさ(確度)も考慮しな
がら人物画像度を算出することもできる。すなわち、先ず、画像データの中から、物体の
輪郭部分を抽出する。輪郭の抽出に際しては、メディアンフィルタなどの二次元フィルタ
を用いてノイズを除去したり、コントラストやエッジを強調した後、二値化を行い、得ら
れた二値化像の境界部分を物体の輪郭として抽出する。次いで、抽出した輪郭の中で、明
らかに人物の顔ではないと思われるものを除外する。例えば、抽出した輪郭の中で直線の
割合が大きい物体については、いわゆる人工物である可能性が高い。このように、明らか
に人物の顔ではないと判断できる物体を除外しておき、残った物体について、輪郭の形状
から「目」、「口」、「鼻筋」などと疑われる物体を抽出していく。もちろん、抽出した
物体が確実に「目」、「口」、「鼻筋」であるとは断定できないから、その確からしさを
数値化し、確度として表しておく。次いで、抽出した物体を以下の様に評価していく。も
し、抽出した物体が本当に「目」、「口」、「鼻筋」などであれば、互いに所定の位置関
係にあるはずである。例えば、「口」と思わしき物体が抽出されたとき、上方に「目」や
「鼻筋」と思われる物体(あるいは明らかに「目」または「鼻筋」であると判断できる物
体)が存在していれば、抽出された物体は「口」であると判断することができる。同様に
「目」と思わしき物体についても、本当に「目」であれば、多くの場合、近くに同じ向き
の「目」らしき物体が存在している筈である。このようにして、輪郭から「目」、「口」
、「鼻筋」などと思われる物体を抽出し、抽出した物体の中から、互いの位置関係を考慮
することによって「目」、「口」、「鼻筋」などを特定することができる。「目」、「口
」、「鼻筋」など顔の構成要素を検出したら、これらを包含する顔の輪郭部分を検出する
。また、「目」、「口」、「鼻筋」などの位置関係を考慮した「顔らしさ」を、確度とし
て数値化しておく。こうして、画像中で人物の顔が写っている部分を検出した後に、検出
した顔の部分の面積を計算する。さらに、「耳」、「口」、「鼻筋」などの顔の構成要素
を検出した際の確度と、顔を検出した際の確度とに基づいて重み係数を決定する。最後に
、先に計算しておいた顔の部分の面積と、この重み係数とを掛けて、得られた数値を人物
画像度とする。こうすれば人物検出の確からしさを含んだ数値として、人物画像度を算出
することができる。
Alternatively, in addition to a method of using a simple area ratio as a person image degree, a portion in which a person is reflected is detected by the following method, taking into consideration the certainty (accuracy) at the time of detection. The person image degree can also be calculated. That is, first, the contour portion of the object is extracted from the image data. When extracting the contour, remove the noise using a two-dimensional filter such as a median filter, or enhance the contrast and edges, and then binarize. Extract as Next, the extracted contours that are apparently not human faces are excluded. For example, an object having a large proportion of straight lines in the extracted contour is highly likely to be a so-called artifact. In this way, objects that can be clearly judged not to be human faces are excluded, and the remaining objects are extracted from the contour shape such as “eyes”, “mouth”, “nasal muscles”, and other suspicious objects. Go. Of course, since it cannot be determined that the extracted object is surely “eyes”, “mouth”, or “nose muscle”, the probability is numerically expressed as accuracy. Next, the extracted object is evaluated as follows. If the extracted objects are really “eyes”, “mouth”, “nose muscles”, etc., they should be in a predetermined positional relationship with each other. For example, when an object that seems to be “mouth” is extracted, an object that seems to be “eyes” or “nasal muscles” (or an object that can be clearly determined to be “eyes” or “nasal muscles”) exists above For example, it can be determined that the extracted object is a “mouth”. Similarly, regarding an object that seems to be an “eye”, if it is really an “eye”, an object that seems to be an “eye” in the same direction is likely to exist in the vicinity. In this way, "eye", "mouth" from the contour
By extracting an object that seems to be “nasal muscles” and the like, and considering the mutual positional relationship among the extracted objects, “eyes”, “mouth”, “nasal muscles” and the like can be specified. When facial components such as “eyes”, “mouth”, and “nose muscles” are detected, the contour portion of the face including them is detected. In addition, the “face-likeness” in consideration of the positional relationship of “eyes”, “mouth”, “nose muscles”, etc. is numerically expressed as the accuracy. In this way, after detecting the portion of the image in which the human face is reflected, the area of the detected face portion is calculated. Furthermore, the weighting coefficient is determined based on the accuracy when the face components such as “ear”, “mouth”, and “nose muscle” are detected, and the accuracy when the face is detected. Finally, the face image area previously calculated is multiplied by this weighting coefficient, and the obtained numerical value is used as the person image degree. In this way, the person image degree can be calculated as a numerical value including the probability of person detection.

こうした各種の方法で人物画像度を求めることができるが、本実施例においては、人物
画像度は0から100までの値に規格化された状態で算出されるものとする。すなわち、
人物がまったく写っていないと判定された画像については人物画像度0と算出され、画像
全体にわたって人物だけが写っていると判定された画像については、人物画像度100と
算出されるものとする。
Although the person image degree can be obtained by these various methods, in this embodiment, the person image degree is calculated in a state normalized to a value from 0 to 100. That is,
It is assumed that an image for which it is determined that a person is not captured at all is calculated as a person image degree of 0, and an image that is determined to include only a person for the entire image is calculated as a person image level of 100.

以上のようにして人物画像度を算出したら、次は、その画像にどの程度風景が写ってい
るのか(風景画像度)を算出する処理を行う(ステップS202)。この算出方法につい
ても各種の方法が提案されているが、簡単には次のように行うことができる。すなわち、
画像データの中で、空色をしている部分が一定以上連続してあれば、その部分は空と推定
でき、同様に、緑色の部分が一定以上連続してあれば、その部分は山や木々を写した部分
と推定できる。そこで、それらの部分が画像全体に占める割合を計算することで、風景画
像度を得ることができる。尚、風景画像度も人物画像度と同様に、0から100までの値
に規格化されているものとする。
After calculating the person image degree as described above, next, a process of calculating how much landscape is reflected in the image (landscape image degree) is performed (step S202). Various methods have been proposed for this calculation method, but can be simply performed as follows. That is,
In the image data, if the sky blue part continues for a certain amount or more, the part can be estimated as sky. Similarly, if the green part continues for a certain amount or more, the part is a mountain or trees. Can be estimated as a part of the image. Therefore, by calculating the ratio of these portions to the entire image, the landscape image degree can be obtained. It is assumed that the landscape image level is also normalized to a value from 0 to 100, like the person image level.

この様に、人物画像度および風景画像度を求めておけば、人物画像用の補正ベクトル(
図12(a)参照)と風景画像用の補正ベクトル(図12(b)参照)とを、人物画像度
および風景画像度との比率で足し合わせることにより、その画像に対応した補正ベクトル
を求めることが可能である。もっとも、本実施例の画像補正処理では、このようにして補
正ベクトルを求めるのではなく、ユーザーの好みに関する情報が記憶されたユーザー修正
情報LUTを参照することにより(ステップS204)、以下のようにして、ユーザーの
好みが反映された補正ベクトルを算出する。尚、ユーザー修正情報LUTは、ルックアッ
プテーブルの形式で、制御回路260のROM内に記憶されている。
In this way, if the person image degree and the landscape image degree are obtained, the correction vector (
The correction vector corresponding to the image is obtained by adding the correction vector for the landscape image (see FIG. 12A) and the correction vector for the landscape image (see FIG. 12B) by the ratio of the person image level and the landscape image level. It is possible. However, in the image correction processing of the present embodiment, the correction vector is not obtained in this way, but by referring to the user correction information LUT in which information related to user preferences is stored (step S204), the following is performed. Thus, a correction vector reflecting the user's preference is calculated. The user correction information LUT is stored in the ROM of the control circuit 260 in the form of a lookup table.

図14は、ユーザー修正情報LUTを例示した説明図である。ユーザー修正情報LUT
には、ユーザーが過去に印刷した画像について、人物画像度および風景画像度と、それに
対応した人物度修正値および風景度修正値とが記憶されている。ここで、人物画像度およ
び風景画像度は、上述した方法によって算出された値である。また、人物度修正値および
風景度修正値は、算出された人物画像度および風景画像度に対して、ユーザーが好みの画
像となるように修正を行った値である。ユーザー修正情報LUTには、この様に、人物画
像度および風景画像度の組合せと、その人物画像度および風景画像度の組み合わせに対応
する修正値という形式で、ユーザーの好みが記憶されている。
FIG. 14 is an explanatory diagram illustrating user modification information LUT. User modification information LUT
Stores the person image degree and landscape image degree, and the corresponding person degree correction value and landscape degree correction value for images printed by the user in the past. Here, the person image degree and the landscape image degree are values calculated by the method described above. Further, the person degree correction value and the landscape degree correction value are values obtained by correcting the calculated person image degree and landscape image degree so that the user has a favorite image. In this way, the user correction information LUT stores user preferences in the form of a combination of a person image level and a landscape image level and a correction value corresponding to the combination of the person image level and the landscape image level.

ユーザーの好みをこの様な形式で表現することができるのは、次の理由による。例えば
、風景をバックに人物を写した画像の場合、人物が小さくしか写っていないのであれば、
人物は無視して風景を重視した補正を好む場合がある。また、人物と風景が半々であれば
、風景よりも人物を重視した補正を好む場合もある。この様に、画像のどの部分を重視す
るのかという点に、ユーザーの好みが表れる。そして、画像のどの部分を重視するのかと
いう点を、人物度や風景度として捉えれば、ユーザーの好みは、画像から算出された人物
画像度および風景画像度に対する修正値として表現することができる。また、ユーザーの
好みは、先に挙げた例の様に、風景が人物より多く写っている場合は風景を重視し、風景
と人物が半々程度ならば人物を重視といった様に、その画像に写っている人物や風景の割
合、すなわち画像の人物画像度および風景画像度の組合せによって異なる。換言すれば、
ユーザーの好みは、実際には画像の人物画像度および風景画像度の組合せに依存しており
、したがって、ユーザーの好みを表した値である修正値は、そのときの人物画像度および
風景画像度の組合せと一緒に記憶されていなければならない。このような理由から、ユー
ザー修正情報LUTには、修正値と、人物画像度および風景画像度の組合せとが、対応付
けられた形で記憶されているのである。
The user's preferences can be expressed in this format for the following reasons. For example, in the case of an image of a person against a landscape, if the person is only small,
In some cases, people ignore and prefer corrections that emphasize landscapes. In addition, if the person and the landscape are half-way, there is a case where a correction that emphasizes the person is preferred over the landscape. In this way, the user's preference appears in which part of the image is important. Then, if the point of which part of the image is important is regarded as the person degree or the landscape degree, the user's preference can be expressed as a correction value for the person image degree and the landscape image degree calculated from the image. In addition, as shown in the example above, the user's preference is to focus on the landscape when the landscape is more than the person, and focus on the person if the landscape and the person are about halfway. The ratio varies depending on the ratio of the person and the landscape, that is, the combination of the person image degree and the landscape image degree of the image. In other words,
The user's preference actually depends on the combination of the person image degree and the landscape image degree of the image. Therefore, the correction value, which is a value representing the user preference, is the person image degree and the landscape image degree at that time. Must be remembered along with the combination. For this reason, the user correction information LUT stores a correction value and a combination of a person image level and a landscape image level in an associated form.

このように、ユーザー修正情報LUTには、過去にユーザーが印刷した画像の人物画像
度度および風景画像度と、ユーザーが好みに応じて修正した情報とが記憶されている。し
たがって、今回の画像と同じ人物画像度および風景画像度を有する画像を過去にユーザー
が印刷していれば、その時のユーザー修正情報をそのまま使うことで、ユーザーの好みに
合致させることができる。もっとも、ユーザーが、過去に全く同じ人物画像度および風景
画像度を有する画像を印刷しているとは限らない。そこで、この様な場合は、記憶されて
いるユーザー修正情報の中から最適なものを選び出して利用することを考える。
As described above, the user correction information LUT stores the person image degree and landscape image degree of images printed by the user in the past, and information corrected by the user according to his / her preference. Therefore, if the user has printed an image having the same person image degree and landscape image degree as the current image in the past, the user correction information at that time can be used as it is to match the user's preference. However, the user does not always print images having the same person image level and landscape image level in the past. Therefore, in such a case, it is considered to select and use the optimum information from the stored user correction information.

図15は、ユーザー修正情報LUTから参照するユーザー修正情報を選び出す方法を示
した説明図である。グラフの横軸は人物画像度であり、縦軸は風景画像度である。図中A
で表された点は今回の画像であり、人物画像度はa、風景画像度はbである。これに対し
、図中で「1」から「4」の数字で示された点は、ユーザー修正情報LUTに記憶されて
いる画像である(図14参照)。先に述べた様に、ユーザーの好みは、画像に写された内
容である人物画像度および風景画像度の組合せ(即ち図15のグラフの平面上の位置)に
依存する。したがって、今回の画像(図中A)に最も近い点を選び、その情報を参照すれ
ば、今回の画像をユーザーの好みにより近づけて補正することができる。図15の例では
、最も近い「1」を選び出している。こうして参照するユーザー修正情報が決まったら、
これをユーザー修正情報LUTから読み出す。次に、読み出した情報に基づいて、印刷し
ようとする画像の人物画像度および風景画像度に対し、以下の様に修正を加える。
FIG. 15 is an explanatory diagram showing a method for selecting user modification information to be referred to from the user modification information LUT. The horizontal axis of the graph is the person image degree, and the vertical axis is the landscape image degree. A in the figure
The point represented by is the current image, the person image degree is a, and the landscape image degree is b. On the other hand, points indicated by numerals “1” to “4” in the figure are images stored in the user correction information LUT (see FIG. 14). As described above, the user's preference depends on the combination of the person image level and the landscape image level (that is, the position on the plane of the graph in FIG. 15) that is the content shown in the image. Therefore, if a point closest to the current image (A in the figure) is selected and the information is referred to, the current image can be corrected closer to the user's preference. In the example of FIG. 15, the closest “1” is selected. Once the user modification information to be referenced is decided,
This is read from the user correction information LUT. Next, based on the read information, the person image level and the landscape image level of the image to be printed are corrected as follows.

図16は、読み出したユーザー修正情報に基づき、人物画像度および風景画像度を修正
する方法を示した説明図である。図16に示されている様に、印刷しようとする画像の人
物画像度に、ユーザー修正情報の人物度修正値を一定の比率kで加味することで、人物画
像度を修正する。ここで、LUTから読み出した修正値に一定の比率を掛けて加味してい
るのは次の理由による。すなわち、先に述べたように、読み出してきたユーザー修正情報
は、今回の画像に一番近い人物画像度および風景画像度の画像に対するものではあるが、
全く同じものではないので、この修正値をそのまま用いるのは適当でない。そこで、比率
kを付することで、修正値を調節しているのである。
FIG. 16 is an explanatory diagram showing a method of correcting the person image level and the landscape image level based on the read user correction information. As shown in FIG. 16, the person image degree is corrected by adding the person degree correction value of the user correction information to the person image degree of the image to be printed at a constant ratio k. Here, the reason why the correction value read from the LUT is added with a certain ratio is as follows. In other words, as described above, the read user correction information is for an image having a person image level and a landscape image level closest to the current image,
It is not appropriate to use this correction value as it is because it is not exactly the same. Therefore, the correction value is adjusted by adding the ratio k.

図17は、LUTから読み出した修正値を考慮する比率kの算出方法を例示した説明図
である。この図で、Sは、図15に示されているように、風景画像度と人物画像度の平面
上における距離である。例えば、図17(a)に例示した方法で比率kを算出すれば、距
離Sが大きいときは比率kが小さくなり、距離Sが小さいときは比率kが大きくなる。従
って、今回の画像と過去の画像との差が大きいときには、過去の情報にあまり影響される
ことがなく、逆に差が小さいときには、過去の情報が重視されるような修正をすることが
できる。また、図17(b)の様な方法で比率kを算出することもできる。すなわち、今
回の画像と過去の画像との距離Sが一定以上である場合は、比率kを「0」に設定し、逆
に一定以下である場合には、比率kを「1」に設定する。こうすることで、今回の画像と
過去の画像が一定以上隔たっている場合は、過去の情報を一切使用せず、逆に一定以下な
らば、今回の画像を過去の画像と同じものとみなして、過去の画像と同じ修正をすること
ができる。こうした方法で算出した比率kを用い、図16に示される数式に従って、修正
人物画像度(図中ではXと表示)および修正風景画像度(図中ではYと表示)を算出する
。次いで、得られた修正人物画像度および修正風景画像度を使いて補正ベクトルを決定す
る(ステップS206)。
FIG. 17 is an explanatory diagram illustrating a method for calculating the ratio k in consideration of the correction value read from the LUT. In this figure, S is the distance on the plane of the landscape image degree and the person image degree as shown in FIG. For example, if the ratio k is calculated by the method illustrated in FIG. 17A, the ratio k is small when the distance S is large, and the ratio k is large when the distance S is small. Therefore, when the difference between the current image and the past image is large, the past information is not so much affected. When the difference is small, the past information can be emphasized. . Further, the ratio k can be calculated by a method as shown in FIG. That is, when the distance S between the current image and the past image is a certain value or more, the ratio k is set to “0”. . In this way, if the current image and the past image are more than a certain distance apart, the past information is not used at all, and if it is less than a certain amount, the current image is considered the same as the past image. The same correction as the past image can be made. Using the ratio k calculated by such a method, the corrected person image degree (displayed as X in the figure) and the corrected landscape image degree (displayed as Y in the figure) are calculated according to the mathematical formula shown in FIG. Next, a correction vector is determined using the obtained corrected person image degree and corrected landscape image degree (step S206).

図18は、画像に対応する補正ベクトルを決定する方法を示した説明図である。図中で
XおよびYは、先に算出した修正人物画像度および修正風景画像度である(図16参照)
。ここに示されている様に、人物用の補正ベクトル(図12(a)参照)と風景用の補正
ベクトル(図12(b)参照)とに、重み係数を掛け、それらを足し合わせることで補正
ベクトルを決定している。掛け合わせる重み係数は、ユーザーが過去に印刷した際の情報
を用いて修正した人物画像度および風景画像度であるから、得られる補正ベクトルはユー
ザーの好みを反映したものとなっている。このように、ユーザー補正情報LUTの情報を
使い人物画像度および風景画像度を修正し、修正後の比率で補正ベクトルを合成すること
で、ユーザーの好みを反映した補正ベクトルを算出することが可能になる。
FIG. 18 is an explanatory diagram showing a method for determining a correction vector corresponding to an image. In the figure, X and Y are the corrected person image degree and the corrected landscape image degree calculated previously (see FIG. 16).
. As shown here, a correction vector for a person (see FIG. 12 (a)) and a correction vector for a landscape (see FIG. 12 (b)) are multiplied by a weighting factor and added together. A correction vector is determined. Since the weighting coefficient to be multiplied is a person image degree and a landscape image degree corrected using information when the user has printed in the past, the obtained correction vector reflects the user's preference. In this way, it is possible to calculate the correction vector reflecting the user's preference by correcting the person image degree and the landscape image degree using the information of the user correction information LUT and synthesizing the correction vector at the corrected ratio. become.

このようにして得られた補正ベクトルを使いれば、ユーザーの好みに合致した補正を施
すことが可能である。そこで、実際に補正を行って、補正結果を確認する(ステップS2
08)。ここでは補正ベクトルには「明度補正係数」「コントラスト補正係数」「シャー
プネス補正係数」の3つの補正係数が設定されているものとしているので(図11参照)
、それぞれの補正係数に従って順番に補正処理を施していく。尚、図13のフローチャー
トに示したステップS208において、補正ベクトルを「暫定的な」補正ベクトルと呼ん
でいる理由については後述する。
By using the correction vector obtained in this way, it is possible to perform a correction that matches the user's preference. Therefore, the correction is actually performed and the correction result is confirmed (step S2).
08). In this case, it is assumed that three correction coefficients “lightness correction coefficient”, “contrast correction coefficient”, and “sharpness correction coefficient” are set in the correction vector (see FIG. 11).
The correction processing is performed in order according to the respective correction coefficients. The reason why the correction vector is called a “provisional” correction vector in step S208 shown in the flowchart of FIG. 13 will be described later.

図19は、明度補正処理を施す為に、RGB表示で表された画像データをYCrCb表
示に変換する変換式である。明度補正処理を施す為には、まず、この式に従って画像デー
タをRGB表示からYCrCb表示に変換した後、算出された明度Yの値を明度補正係数
に従い補正する。Yの値を補正するには、簡便には明度補正係数をYの値に掛ければよい
。こうしてYを補正した後、図19の変換式に従いYCrCb表示からRGB表示に逆変
換することで、明度補正処理が施された画像データを得ることができる。明度補正処理が
施された画像に対し、次いで、コントラスト補正処理を行う。コントラスト補正処理につ
いても様々な方法があるが、簡便にはトーンカーブを用いて補正することができる。
FIG. 19 is a conversion formula for converting image data expressed in RGB display into YCrCb display in order to perform brightness correction processing. In order to perform the brightness correction process, first, after the image data is converted from RGB display to YCrCb display according to this equation, the calculated brightness Y value is corrected according to the brightness correction coefficient. In order to correct the Y value, a lightness correction coefficient is simply multiplied by the Y value. After correcting Y in this way, the image data subjected to the brightness correction process can be obtained by performing inverse conversion from YCrCb display to RGB display according to the conversion formula of FIG. Next, a contrast correction process is performed on the image on which the brightness correction process has been performed. There are various methods for the contrast correction processing, but it can be easily corrected using a tone curve.

図20はトーンカーブによるコントラスト補正処理を例示した説明図である。グラフの
横軸は入力値(R,G,Bいずれかの値)であり、縦軸は出力値である。実線で示された
トーンカーブは補正前のものであり、出力値が入力値に一致するという関係になっている
。破線で示されたトーンカーブはコントラスト補正処理を施す為のものであり、実線で示
されたトーンカーブよりも傾きが大きくなっている。このようなトーンカーブに従って入
力値を変換すると、入力値(補正前)の変化に対して出力値(補正後)の変化が大きくな
り、より鮮やかな印象の画像に補正される。このトーンカーブの傾きをコントラスト補正
係数に対応して設定しておくことで、コントラスト補正係数に従った補正処理が施された
画像データを得ることができる。
FIG. 20 is an explanatory view exemplifying contrast correction processing using a tone curve. The horizontal axis of the graph is an input value (R, G, or B value), and the vertical axis is an output value. The tone curve indicated by the solid line is the one before correction, and the output value matches the input value. The tone curve indicated by the broken line is for performing contrast correction processing, and has a larger slope than the tone curve indicated by the solid line. When the input value is converted according to such a tone curve, the change of the output value (after correction) becomes larger than the change of the input value (before correction), and the image is corrected to a more vivid impression. By setting the inclination of the tone curve corresponding to the contrast correction coefficient, it is possible to obtain image data that has been subjected to correction processing according to the contrast correction coefficient.

コントラスト補正処理に次いで、シャープネス補正処理を施す。この補正は、被写体の
輪郭部分や影の部分などのように、色調が急激に変化する部分、いわゆるエッジを抽出し
、それを強調(シャープネス補正係数が正の時)または目立たなくする(シャープネス補
正係数が負の時)補正である。エッジを目立たなくさせる補正は、ガウシアンフィルタな
どの二次元フィルタを作用させて、いわゆるぼかし補正を行うことによって実行すること
ができる。
Following the contrast correction processing, sharpness correction processing is performed. This correction extracts parts where the color tone changes abruptly, such as contours and shadows of the subject, so-called edges, and emphasizes them (when the sharpness correction factor is positive) or makes them inconspicuous (sharpness correction) Correction when the coefficient is negative. The correction that makes the edge inconspicuous can be performed by applying a two-dimensional filter such as a Gaussian filter and performing so-called blur correction.

図21は、縦横3画素分の大きさを有するガウシアンフィルタを例示した説明図である
。図示するように、ガウシアンフィルタには、中心からの距離が遠くなるほど小さな値と
なるように重み係数が設定されており、このような二次元フィルタを画像データに作用さ
せると、自然な感じで画像をぼかすことができる。また、ガウシアンフィルタの重み係数
を適切に設定することで、ぼかしの程度を調整できる。例えば、図21(b)に示すガウ
シアンフィルタは、図21(a)に示すガウシアンフィルタよりも周辺の重みが大きいの
で、ぼかしの程度が大きくなる。この重み係数を、シャープネス補正係数に従って適切に
設定することで、シャープネス補正係数に対応したぼかし補正を施すことができる。
FIG. 21 is an explanatory diagram illustrating a Gaussian filter having a size of three pixels in the vertical and horizontal directions. As shown in the figure, the Gaussian filter has a weighting factor that is set to a smaller value as the distance from the center increases. When such a two-dimensional filter is applied to image data, the image looks natural. Can be blurred. In addition, the degree of blur can be adjusted by appropriately setting the weighting coefficient of the Gaussian filter. For example, the Gaussian filter shown in FIG. 21B has a larger peripheral weight than the Gaussian filter shown in FIG. By appropriately setting the weighting coefficient according to the sharpness correction coefficient, blur correction corresponding to the sharpness correction coefficient can be performed.

一方、エッジを強調したい場合には、次のような方法で行う。すなわち、ガウシアンフ
ィルタなどの二次元フィルタを用いて得られた画像と、元の画像との差分を取り、それを
元の画像に一定の比率kで加えるという処理を施す。これはいわゆるアンシャープネスマ
スクという手法である。ここで、元の画像に加える比率kをシャープネス補正係数に比例
した値に設定しておくことで、シャープネス補正量に対応したエッジ強調補正を施すこと
ができる。
On the other hand, when it is desired to emphasize an edge, the following method is used. That is, a process is performed in which a difference between an image obtained using a two-dimensional filter such as a Gaussian filter and the original image is taken and added to the original image at a constant ratio k. This is a so-called unsharpness mask. Here, by setting the ratio k added to the original image to a value proportional to the sharpness correction coefficient, edge enhancement correction corresponding to the sharpness correction amount can be performed.

こうして、ユーザー修正情報LUTから求めた(暫定的な)補正ベクトルに従って「明
度補正処理」「コントラスト補正処理」「シャープネス補正処理」の3つの補正処理を施
した後に、得られた画像を本実施例の印刷装置10の操作パネル300に備えられた画面
に表示する。
In this way, after performing three correction processes of “brightness correction process”, “contrast correction process”, and “sharpness correction process” according to the (provisional) correction vector obtained from the user correction information LUT, the image obtained in this embodiment is used. Are displayed on a screen provided on the operation panel 300 of the printing apparatus 10.

図22は、暫定的な補正ベクトルに従って補正された画像が画面に表示されている様子
を示した説明図である。このように操作パネル300の画面によって、ユーザーは補正さ
れた画像を確認することができる。表示された画像が好みの画像となっていれば、ユーザ
ーは操作パネル300を操作し、その画像をそのまま印刷するよう指示を出す。一方、表
示された画像が自分の好みと合致していない場合は、図22に示されている様に、「人物
度」および「風景度」の2つの量を操作し、好みの画像となるように最終的な補正内容を
確定する。すなわち、画像の人物画像度、風景画像度、およびユーザー修正情報LUTか
ら求めた補正ベクトルは、ユーザーが過去に行った補正の内容をふまえたものとなってい
るので、ユーザーの好みと大まかには一致するものの、あくまでも推測によって算出した
補正ベクトルにすぎないので、念のために補正した画像を画面に表示させ、最終的な補正
ベクトルはユーザーが確定する様になっている。ユーザー修正情報LUTから求めた補正
ベクトルを「暫定的な」補正ベクトルと呼んでいるのは、この様に、補正画像を画面に表
示するために暫定的に決められた補正ベクトルであるということをふまえたものである。
FIG. 22 is an explanatory diagram showing a state in which an image corrected according to the provisional correction vector is displayed on the screen. In this way, the user can check the corrected image on the screen of the operation panel 300. If the displayed image is a favorite image, the user operates the operation panel 300 and issues an instruction to print the image as it is. On the other hand, if the displayed image does not match the user's preference, as shown in FIG. 22, two amounts of “personality” and “scenery” are manipulated to obtain a favorite image. The final correction content is determined as follows. That is, since the correction vector obtained from the person image degree, landscape image degree, and user correction information LUT of the image is based on the contents of correction performed by the user in the past, Although they coincide with each other, they are merely correction vectors calculated by estimation, so that a corrected image is displayed on the screen just in case and the final correction vector is determined by the user. The correction vector obtained from the user correction information LUT is called a “provisional” correction vector, as described above, that the correction vector is tentatively determined to display the correction image on the screen. It's just a matter of things.

操作パネル300の表示を確認して、ユーザーが「人物度」または「風景度」を操作す
ると(図22参照)、本実施例の印刷装置は、以下の手順で補正ベクトルを計算しなおし
て、補正画像を再び操作パネル300の画面に表示する。まず、図23に示す式に従い、
X(修正人物画像度)およびY(修正風景画像度)を算出しなおす。この計算では、図2
3に示される様に、暫定的な補正ベクトルを求めた際の修正人物画像度および修正風景画
像度(図18参照)に、ユーザーが操作した量を加味する。こうして修正人物画像度およ
び修正風景画像度を計算し直したら、図18に示す数式によって補正ベクトルを算出する
。補正ベクトルが得られたら、それに従って「明度補正処理」「シャープネス補正処理」
「コントラスト補正処理」を行い、得られた画像を操作パネル300の画面に表示する(
図22参照)。こうして、ユーザーが操作した「人物度」「風景度」を反映した補正画像
が表示されるので、ユーザーは好みの画像が得られたことを画面上で確認することができ
る。もし、好みの画像となっていない場合は、好みの画像となるまで「人物度」「風景度
」の操作を繰り返せばよい。好みの画像となったことを確認したら、ユーザーは操作パネ
ル300から印刷指示を出す。こうしてユーザーからの印刷指示を受けとると、そのとき
の補正ベクトルが「最終的な補正ベクトル」として確定される。
When the user confirms the display on the operation panel 300 and operates the “person degree” or “landscape degree” (see FIG. 22), the printing apparatus of the present embodiment recalculates the correction vector according to the following procedure, The corrected image is displayed on the screen of the operation panel 300 again. First, according to the equation shown in FIG.
Recalculate X (corrected person image degree) and Y (corrected landscape image degree). In this calculation, FIG.
As shown in FIG. 3, the amount manipulated by the user is added to the corrected person image degree and the corrected landscape image degree when the provisional correction vector is obtained (see FIG. 18). When the corrected person image degree and the corrected landscape image degree are recalculated in this way, a correction vector is calculated by the mathematical formula shown in FIG. Once the correction vector is obtained, “brightness correction processing” and “sharpness correction processing” are performed accordingly.
“Contrast correction processing” is performed, and the obtained image is displayed on the screen of the operation panel 300 (
(See FIG. 22). In this way, the corrected image reflecting the “personality” and “scenery” operated by the user is displayed, so that the user can confirm on the screen that a desired image has been obtained. If the image is not a favorite image, the “personality” and “scenery” operations may be repeated until the image becomes a favorite image. When it is confirmed that the desired image is obtained, the user issues a print instruction from the operation panel 300. When a print instruction is received from the user in this way, the correction vector at that time is determined as the “final correction vector”.

このように、「人物度」および「風景度」を操作することで、ユーザーは好みの画像と
なるような補正ベクトルを決定することができる。また、「人物度」「風景度」を操作さ
せるという方式を採用しているために、ユーザーは、明度、コントラスト、シャープネス
などの高度な画像補正の知識を有していなくとも、補正内容を決定することができ、その
結果、ユーザーは簡便に自分の好みを反映させることが可能となっている。
In this way, by operating the “person degree” and the “landscape degree”, the user can determine a correction vector that gives a favorite image. In addition, since the method of operating “personality” and “scenery” is adopted, even if the user does not have advanced image correction knowledge such as brightness, contrast, sharpness, etc., the correction contents are determined. As a result, the user can easily reflect his / her preference.

こうして、ユーザーの好みに合致した補正が決まったら、次回以降の画像印刷の際に用
いるために、今回の画像についての情報をユーザー修正情報LUTに追加記憶させる(ス
テップS212)。記憶させる情報は、先に述べた様に、画像に対して算出された人物画
像度および風景画像度と、人物画像度および風景画像度に対して修正した値とである(図
14参照)。尚、ステップS208において、ユーザーが「人物度」「風景度」を操作す
ることなく、暫定的な補正ベクトルによる補正画像をそのまま印刷するよう指示を出した
場合は、ユーザー修正情報LUTには情報を追加記憶させない(ステップS210:no
)。なぜなら、この場合は、すでにユーザー修正情報LUTに記憶されていた情報によっ
て、ユーザーの好みを的確に反映できた(ユーザー修正情報LUTを元に算出した暫定的
な補正ベクトルが、そのまま最終的な補正ベクトルとして確定した)のであるから、新た
な情報をユーザー修正情報LUTに追加する必要がない。
In this way, when a correction that matches the user's preference is determined, information about the current image is additionally stored in the user correction information LUT for use in subsequent image printing (step S212). As described above, the information to be stored includes the person image degree and landscape image degree calculated for the image, and values corrected for the person image degree and the landscape image degree (see FIG. 14). In step S208, if the user issues an instruction to print the corrected image based on the temporary correction vector without operating “personality” and “landscape degree”, information is stored in the user correction information LUT. No additional storage is performed (step S210: no)
). This is because in this case, the user's preference can be accurately reflected by the information already stored in the user correction information LUT (the provisional correction vector calculated based on the user correction information LUT is used as the final correction as it is. Therefore, it is not necessary to add new information to the user correction information LUT.

一方、ユーザーが修正を加えた場合(ステップS210:yes)は、ユーザーの好み
に関する新たな情報が得られたのであるから、ユーザー修正情報LUTに追加記憶させて
おくことで、次回以降の画像印刷の際に、ユーザーの好みをより的確に反映させることが
可能となる。このように、ユーザーが修正を加えた場合にのみ追加記憶させることとすれ
ば、印刷する度にユーザー修正情報LUTが大きくなり、制御回路260のROMやCP
Uに負担を掛けてしまうといった事態を回避しながら、ユーザーの好みに関する情報を適
切に蓄積していくことができるので、好適である。
On the other hand, if the user has made corrections (step S210: yes), new information regarding the user's preferences has been obtained, so by storing the information in the user correction information LUT, the next image printing can be performed. In this case, it becomes possible to more accurately reflect user preferences. As described above, if additional storage is performed only when the user makes corrections, the user correction information LUT increases each time printing is performed, and the ROM and CP of the control circuit 260 are increased.
It is preferable because information on user preferences can be appropriately accumulated while avoiding a situation in which U is burdened.

尚、これとは逆に、制御回路260のROMやCPUの処理能力に十分な余力がある場
合は、ユーザーが修正を加えたかどうかに拘わらず、印刷する度にユーザー修正情報LU
Tに情報を追加記憶させる方式を採用してもよい。この場合は、ユーザーが修正を加えた
場合にのみ追加記憶させる方式と比べて、以下のような利点がある。すなわち、ユーザー
が修正を加えた場合にのみ追加記憶させる方式では、新たな情報がユーザー修正情報LU
Tに追加された為に、それ以前は好みにあった画像が得られていた場合でも、追加後は好
みの画像が得られなくなってしまう場合がある。この点、印刷する度に追記する方式なら
ば、好ましい画像が得られたときの修正情報がユーザー修正情報LUTに記憶されている
ので、その情報を用いて好ましい画像を得ることが可能である。更には、ユーザー修正情
報LUTに一定の情報量が蓄積されるまでは、印刷する度に追加記憶させ、一定の情報量
が蓄積された後は、必要に応じて追加記憶するといった方式を採用してもよい。
On the other hand, if the ROM or CPU processing capacity of the control circuit 260 has sufficient capacity, the user correction information LU is printed each time printing is performed regardless of whether the user has made corrections.
A method of additionally storing information in T may be adopted. In this case, there are the following advantages over the method of additionally storing only when the user makes corrections. That is, in the method of additionally storing only when the user makes corrections, new information is stored in the user correction information LU.
Since it was added to T, there may be a case where a favorite image cannot be obtained after the addition even if an image that suits the preference was obtained before that. In this regard, with the method of adding information every time printing is performed, correction information when a preferable image is obtained is stored in the user correction information LUT, and therefore, it is possible to obtain a preferable image using the information. Furthermore, a method is adopted in which additional information is stored each time printing is performed until a certain amount of information is accumulated in the user correction information LUT, and additional information is stored as necessary after the certain amount of information is accumulated. May be.

こうした方法により、ユーザー修正情報LUTに情報を追加記憶させた後は、最終的な
補正ベクトルに従って画像データを補正処理し(ステップS214)、図13に示した画
像補正処理を終了する。
After the information is additionally stored in the user correction information LUT by such a method, the image data is corrected according to the final correction vector (step S214), and the image correction process shown in FIG. 13 is ended.

以上説明した様に、本実施例の画像補正処理では、画像に写された対象を数値化し、「
人物画像度」「風景画像度」として算出している。また、ユーザーの好みについても、「
人物画像度」「風景画像度」の組合せと、それに対する修正値という形で記憶している。
このように、「画像に写された対象」を数値化した「人物画像度」「風景画像度」を基準
とし、それに基づいて補正処理を決定しているので、写された対象に応じた適切な補正処
理を施すことが可能となり、また、画像のどの部分を重視するのかという形で好みを反映
させることができるので、ユーザーは高度な画像補正処理の知識がなくても簡便に好まし
い画像に補正することが可能となる。
As described above, in the image correction processing of the present embodiment, the target imaged in the image is digitized and “
It is calculated as “person image degree” and “landscape image degree”. As for user preferences,
A combination of “person image degree” and “landscape image degree” and a correction value for the combination are stored.
In this way, since the “person image degree” and “landscape image degree” obtained by quantifying the “object captured in the image” are determined based on the correction processing, the correction processing is determined based on the standard. Correction can be performed, and the preference can be reflected in the form of which part of the image is important, so that the user can easily obtain a preferable image without knowledge of advanced image correction processing. It becomes possible to correct.

E.変形例 :
以上に説明した画像印刷処理では、印刷しようとする画像から人物画像度および風景画
像度の2つの値を算出し、これらを修正することによって、ユーザーの好みに合致した補
正を行うものとして説明した。しかし、画像から抽出する値は、人物画像度や風景画像度
などに限られるものではなく、例えば、夜景が写っているか否かを示す「夜景画像度」を
抽出して、ユーザーの好みに応じた補正を行うことも可能である。更には、より多くの値
を画像から抽出して、画像を補正することも可能である。以下では、「人物画像度」「風
景画像度」「夜景画像度」の3つの値を抽出して、ユーザーの好みを反映した補正を行う
変形例の画像補正処理について説明する。
E. Modified example:
In the image printing process described above, two values of the person image degree and the landscape image degree are calculated from the image to be printed, and correction is performed according to the user's preference by correcting these two values. . However, the value extracted from the image is not limited to the person image degree or the landscape image degree. For example, the “night scene image degree” indicating whether or not the night scene is reflected is extracted and the user's preference is extracted. It is also possible to make corrections. Furthermore, it is possible to correct the image by extracting more values from the image. Hereinafter, a description will be given of an image correction process according to a modified example in which three values of “person image degree”, “landscape image degree”, and “night scene image degree” are extracted to perform correction reflecting user's preference.

前述した画像補正処理では、画像から「人物画像度」「風景画像度」の2つの値を抽出
し、これらに対する修正値としてユーザーの好みを表現したが、変形例の画像補正処理で
は、「人物画像度」「風景画像度」「夜景画像度」の3つの値を抽出する関係上、ユーザ
ーの好みは、これら3つの値に対する修正値として表現されることになる。従って、変形
例の画像補正処理では、ユーザーの好みを記憶するユーザー修正情報LUTは、三次元の
ルックアップテーブルの形式となる。
In the image correction process described above, two values of “person image degree” and “landscape image degree” are extracted from the image, and the user's preference is expressed as a correction value for these values. In view of extracting three values of “image quality”, “landscape image quality” and “night scene image quality”, the user's preference is expressed as a correction value for these three values. Therefore, in the image correction process of the modification, the user correction information LUT that stores user preferences is in the form of a three-dimensional lookup table.

図24は、「人物画像度」「風景画像度」「夜景画像度」の3つの値を用いた変形例の
ユーザー修正情報LUTを例示した説明図である。図24に示されている様に、変形例の
ユーザー修正情報LUTは、「人物画像度」「風景画像度」「夜景画像度」の3つの値の
組合せと、これらの修正値が記憶された3次元のルックアップテーブルとなっている。変
形例の画像補正処理では、印刷しようとする画像から「人物画像度」「風景画像度」「夜
景画像度」を抽出した後、このようなユーザー修正情報LUTを参照することにより、ユ
ーザーの好みに応じた修正値を決定する。
FIG. 24 is an explanatory view exemplifying a user modification information LUT of a modification using three values of “person image degree”, “landscape image degree”, and “night scene image degree”. As shown in FIG. 24, the user correction information LUT of the modified example stores a combination of three values of “person image degree”, “landscape image degree”, and “night scene image degree”, and these correction values. It is a three-dimensional lookup table. In the image correction processing of the modification, after extracting “person image degree”, “landscape image degree”, and “night scene image degree” from the image to be printed, the user's preference is obtained by referring to such user correction information LUT. The correction value according to is determined.

図25は、変形例のユーザー修正情報LUTを参照して、画像を補正するための情報を
選択している様子を示す説明図である。図では、画像から抽出された「人物画像度」「風
景画像度」「夜景画像度」を、直交する三軸に取ることにより、画像の「人物画像度」「
風景画像度」「夜景画像度」が座標点によって表現されている。図中に示されたA点は今
回の画像であり、これに対し、図中で「1」から「4」の数字で示された点は、ユーザー
修正情報LUTに記憶されている画像である。仮に、今回の画像(A点)が、ユーザー修
正情報LUTに記憶されている何れかの座標点と一致していれば、その座標点に対応する
修正量を用いることにより、ユーザーの好みに合った補正を行うことができる。しかし、
このようなことは稀であり、通常は、ユーザー修正情報LUTに記憶されている座標点の
中から、今回印刷しようとしている画像の座標点に最も近い座標点を選択することによっ
て、ユーザーの好みに近い補正を行うことになる。図25では、最も近い座標点「3」が
選択された場合が示されている。こうして選び出した画像の情報をユーザー修正情報LU
Tから読み出すことにより、印刷しようとする画像についての「修正人物画像度」「修正
風景画像度」「修正夜景画像度」の算出を行う。
FIG. 25 is an explanatory diagram showing a state in which information for correcting an image is selected with reference to the user correction information LUT of the modification. In the figure, the “person image degree”, “landscape image degree”, and “night scene image degree” extracted from the images are taken on three orthogonal axes, so that the “person image degree” “
“Landscape image degree” and “Night scene image degree” are expressed by coordinate points. The point A shown in the figure is the current image, whereas the points indicated by the numbers “1” to “4” in the figure are images stored in the user correction information LUT. . If the current image (point A) matches one of the coordinate points stored in the user correction information LUT, the correction amount corresponding to the coordinate point is used to meet the user's preference. Correction can be performed. But,
This is rare, and usually the user's preference is selected by selecting the coordinate point closest to the coordinate point of the image to be printed this time from the coordinate points stored in the user correction information LUT. Correction close to is performed. FIG. 25 shows a case where the closest coordinate point “3” is selected. The image information thus selected is referred to as user correction information LU.
By reading from T, the “corrected person image degree”, “corrected landscape image degree”, and “corrected night view image degree” for the image to be printed are calculated.

図26は、変形例のユーザー修正情報LUTから読み出した情報に基づいて「修正人物
画像度」「修正風景画像度」「修正夜景画像度」を算出する方法を示した説明図である。
印刷しようとする画像の「修正人物画像度」「修正風景画像度」「修正夜景画像度」は、
前述した画像補正処理における場合と同様の考え方によって算出することができる。すな
わち、印刷しようとする画像から抽出された「人物画像度」「風景画像度」「夜景画像度
」に、ユーザー修正情報LUTから読み出した「人物度修正値」「風景度修正値」「夜景
度修正値」を、一定の比率kで加味すればよい。また、一定の比率kは、図17に例示さ
れた方法により算出することができる。こうして「修正人物画像度」「修正風景画像度」
「修正夜景画像度」を求めておけば、前述した画像印刷処理と同様にして、補正ベクトル
を算出することができる。
FIG. 26 is an explanatory diagram showing a method of calculating “corrected person image degree”, “corrected landscape image degree”, and “corrected night view image degree” based on information read from the user correction information LUT of the modification.
The “corrected person image”, “corrected landscape image”, and “corrected night view image” of the image to be printed are
It can be calculated by the same concept as in the image correction process described above. That is, the “person image degree”, “landscape image degree”, and “night scene image degree” extracted from the image to be printed are added to the “person degree correction value”, “landscape degree correction value”, and “night scene degree” read from the user correction information LUT. What is necessary is just to consider "correction value" by the fixed ratio k. Further, the certain ratio k can be calculated by the method illustrated in FIG. In this way, "corrected person image degree""corrected landscape image degree"
If the “corrected night view image degree” is obtained, the correction vector can be calculated in the same manner as the image printing process described above.

図27は、変形例の画像補正処理において、補正ベクトルを算出する方法を示した説明
図である。上述した方法により算出された修正人物画像度(図中Xと表記)、修正風景画
像度(図中Yと表記)、修正夜景画像度(図中Zと表記)は、ユーザー修正情報LUTか
ら読み出した情報に従って修正された値であるから、ユーザーの好みを反映した値となっ
ている。この値を重み係数として、人物用補正ベクトル、風景用補正ベクトル、夜景用補
正ベクトルを足し合わせることで、ユーザーの好みを反映した補正ベクトルを算出するこ
とができる。この様に、「人物画像度」「風景画像度」「夜景画像度」の3つの値を用い
た場合においても、これら3つの値の組合せとそれらの修正値とをユーザー修正情報LU
Tに記憶しておくことで、「修正人物画像度」「修正風景画像度」「修正夜景画像度」を
求めることができ、これらの値を用いることによってユーザーの好みを反映した補正ベク
トルを算出することが可能となる。こうして補正ベクトルが得られたら、補正ベクトルに
従って実際に画像を補正し、ユーザーが操作パネル300でこれを確認して最終的な補正
内容を確定する処理を行う。
FIG. 27 is an explanatory diagram showing a method for calculating a correction vector in the image correction processing according to the modification. The corrected person image degree (denoted as X in the figure), the corrected landscape image degree (denoted as Y in the figure), and the corrected night view image degree (denoted as Z in the figure) calculated by the method described above are read out from the user correction information LUT. Since the value is corrected according to the information, the value reflects the user's preference. By using this value as a weighting factor, the correction vector for reflecting the user's preference can be calculated by adding the correction vector for person, correction vector for landscape, and correction vector for night view. In this way, even when three values of “person image degree”, “landscape image degree”, and “night scene image degree” are used, the combination of these three values and their correction values are used as the user correction information LU.
By storing in T, it is possible to obtain “corrected person image degree”, “corrected landscape image degree”, and “corrected night view image degree”, and by using these values, a correction vector reflecting the user's preference is calculated. It becomes possible to do. When the correction vector is obtained in this way, the image is actually corrected according to the correction vector, and the user confirms this on the operation panel 300 and performs the process of determining the final correction content.

図28は、変形例において、操作パネル300に補正画像が表示されている様子を示し
た説明図である。ユーザーは操作パネル300に表示された画像を確認し、画像が好みに
合致していない場合は、前述した画像補正処理と同様に(図22参照)、「人物度」「風
景度」「夜景度」の3つの値を調整することで、好みの画像となるように補正内容を変更
すことができる。ユーザーが「人物度」「風景度」「夜景度」を調整すると、図29に示
される式に従って重み係数が修正され、補正ベクトルが再度計算されて(図27参照)、
補正画像が表示される。ユーザーは、この様にして操作パネル300の画面で補正画像を
確認しながら、最終的な補正内容を確定することができる。こうして確定した補正内容に
より、ユーザーの好みに合致した補正処理が施される。
FIG. 28 is an explanatory diagram showing a state in which a corrected image is displayed on the operation panel 300 in the modified example. The user checks the image displayed on the operation panel 300, and if the image does not match the preference, the “personality”, “scenery”, “nightscape” is the same as the image correction process described above (see FIG. 22). By adjusting the three values, the correction contents can be changed so that a desired image is obtained. When the user adjusts the “personality”, “scenery”, and “nightscape”, the weighting coefficient is corrected according to the formula shown in FIG. 29, and the correction vector is calculated again (see FIG. 27).
A corrected image is displayed. In this way, the user can confirm the final correction content while confirming the correction image on the screen of the operation panel 300. Based on the correction content thus determined, correction processing that matches the user's preference is performed.

以上に説明した変形例では、「人物画像度」「風景画像度」に加えて、「夜景画像度」
を抽出することで、ユーザーの好みをよりいっそう適切に反映させて好ましい画像に補正
することが可能となる。例えば、「人物画像度」および「風景画像度」の値が同じでも、
その画像が夜景を写したものか否かによって、人物あるいは風景の何れを重視するのかと
いったユーザーの好みが異なる場合がある。あるいは、夜景を写した画像については、人
物や風景とは異なった画像を好む場合がある。このような場合でも、「人物画像度」「風
景画像度」に加えて「夜景画像度」を抽出することで、ユーザー修正情報LUTにユーザ
ーの好みを反映させることが可能となり、延いては、ユーザーの好みに応じて適切に画像
を補正することが可能となる。
In the modification described above, in addition to “person image degree” and “landscape image degree”, “night scene image degree”
By extracting, it is possible to correct the user's preference more appropriately and correct it to a preferable image. For example, even if the values of “Portrait Image Level” and “Landscape Image Level” are the same,
Depending on whether or not the image is a night view, the user's preference such as whether to emphasize a person or a landscape may differ. Alternatively, for an image showing a night view, an image different from a person or landscape may be preferred. Even in such a case, by extracting “night scene image degree” in addition to “person image degree” and “landscape image degree”, it becomes possible to reflect the user's preference in the user correction information LUT. It is possible to correct the image appropriately according to the user's preference.

もちろん、こうした効果は「夜景画像度」を抽出した場合に限られるものではなく、「
夜景画像度」の代わりに例えば「植物画像度」や「水中画像度」などを抽出した場合にも
同様に得ることができる。更には、「人物画像度」「風景画像度」「夜景画像度」に加え
て「植物画像度」「水中画像度」などを抽出することも可能である。抽出する値が増えた
場合でも、ユーザー修正情報LUTの次元を増やすだけで対応することが可能であり、画
像を補正するための処理が大幅に複雑化することはない。
Of course, this effect is not limited to the case where the “night view image degree” is extracted.
For example, “plant image degree” or “underwater image degree” may be extracted instead of “night scene image degree”. Furthermore, in addition to “person image degree”, “landscape image degree”, and “night scene image degree”, it is also possible to extract “plant image degree”, “underwater image degree”, and the like. Even if the value to be extracted increases, it is possible to cope with the problem by simply increasing the dimension of the user correction information LUT, and the processing for correcting the image is not significantly complicated.

以上、本実施例の印刷装置について説明したが、本発明は上記すべての実施例に限られ
るものではなく、その要旨を逸脱しない範囲において種々の態様で実施することができる
Although the printing apparatus of the present embodiment has been described above, the present invention is not limited to all the above-described embodiments, and can be implemented in various modes without departing from the scope of the present invention.

本実施例の印刷装置の概要を示した説明図である。It is explanatory drawing which showed the outline | summary of the printing apparatus of a present Example. 本実施例の印刷装置の外観形状を示す斜視図である。It is a perspective view which shows the external appearance shape of the printing apparatus of a present Example. 原稿画像を読み込むために印刷装置の上部に設けられた原稿台カバーを開いた様子を示す説明図である。FIG. 6 is an explanatory diagram showing a state in which a document table cover provided on the upper part of the printing apparatus is opened to read a document image. スキャナ部の手前側を持ち上げて回転させた様子を示した斜視図である。It is the perspective view which showed a mode that the front side of the scanner part was lifted and rotated. 本実施例の印刷装置の内部構成を概念的に示した説明図である。It is explanatory drawing which showed notionally the internal structure of the printing apparatus of a present Example. 各色のインク吐出ヘッドにインク滴を吐出する複数のノズルが形成されている様子を示した説明図である。It is explanatory drawing which showed a mode that the several nozzle which discharges an ink drop to the ink discharge head of each color was formed. プリンタドライバが印刷を実行する処理(画像印刷処理)の流れを示すフローチャートである。4 is a flowchart illustrating a flow of processing (image printing processing) in which a printer driver executes printing. 色変換処理のために参照される色変換テーブルを概念的に示した説明図である。It is explanatory drawing which showed notionally the color conversion table referred for a color conversion process. ディザマトリックスの一部を拡大して例示した説明図である。It is explanatory drawing which expanded and illustrated a part of dither matrix. ディザマトリックスを参照しながら画素毎にドット形成の有無を判断している様子を概念的に示した説明図である。It is explanatory drawing which showed notionally the mode that the presence or absence of dot formation was judged for every pixel, referring a dither matrix. 本実施例の画像補正処理で用いる補正ベクトルを示した説明図である。It is explanatory drawing which showed the correction vector used by the image correction process of a present Example. 人物用の補正ベクトルと風景用の補正ベクトルとを例示した説明図である。It is explanatory drawing which illustrated the correction vector for persons, and the correction vector for scenery. 本実施例の画像補正処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image correction process of a present Example. ユーザー修正情報LUTを例示した説明図である。It is explanatory drawing which illustrated user correction information LUT. ユーザー修正情報LUTから参照するユーザー修正情報を選び出す方法を示した説明図である。It is explanatory drawing which showed the method of selecting the user correction information referred from user correction information LUT. 読み出したユーザー修正情報に基づき人物画像度および風景画像度を修正する方法を示した説明図である。It is explanatory drawing which showed the method of correcting a person image degree and a landscape image degree based on the read user correction information. ユーザー修正情報LUTから読み出した修正値を考慮する比率kの算出方法を例示した説明図である。It is explanatory drawing which illustrated the calculation method of the ratio k which considers the correction value read from user correction information LUT. 補正ベクトルを決定する方法を示した説明図である。It is explanatory drawing which showed the method of determining a correction vector. 明度補正処理を施す為にRGB表示で表された画像データをYCrCb表示に変換する変換式である。This is a conversion formula for converting image data expressed in RGB display into YCrCb display in order to perform brightness correction processing. トーンカーブによるコントラスト補正処理を例示した説明図である。It is explanatory drawing which illustrated the contrast correction process by a tone curve. 縦横3画素分の大きさを有するガウシアンフィルタを例示した説明図である。It is explanatory drawing which illustrated the Gaussian filter which has a magnitude | size for vertical and horizontal 3 pixels. 暫定的な補正ベクトルに従って補正された画像が画面に表示されている様子を示した説明図である。It is explanatory drawing which showed a mode that the image correct | amended according to the provisional correction vector was displayed on the screen. ユーザーが修正した値に従い、「修正人物画像度」および「修正風景画像度」を変更する方法を示した説明図である。It is explanatory drawing which showed the method of changing "corrected person image degree" and "corrected landscape image degree" according to the value which the user correct | amended. 「人物画像度」「風景画像度」「夜景画像度」の3つの値を用いた変形例のユーザー修正情報LUTを例示した説明図である。It is explanatory drawing which illustrated user modification information LUT of the modification using three values of "person image degree", "landscape image degree", and "night view image degree". 変形例のユーザー修正情報LUTを参照して画像を補正するための情報を選択している様子を示す説明図である。It is explanatory drawing which shows a mode that the information for correct | amending an image is selected with reference to the user correction information LUT of a modification. 変形例のユーザー修正情報LUTから読み出した情報に基づいて「修正人物画像度」「修正風景画像度」「修正夜景画像度」を算出する方法を示した説明図である。It is explanatory drawing which showed the method of calculating "corrected person image degree", "corrected landscape image degree", and "corrected night view image degree" based on the information read from the user correction information LUT of a modification. 変形例の画像補正処理において補正ベクトルを算出する方法を示した説明図である。It is explanatory drawing which showed the method of calculating a correction vector in the image correction process of a modification. 変形例において、暫定的な補正ベクトルによる補正画像が画面に表示されている様子を示した説明図である。In a modification, it is explanatory drawing which showed a mode that the correction image by a temporary correction vector was displayed on the screen. 変形例において、ユーザーが修正した値に従い「修正人物画像度」「修正風景画像度」「修正夜景画像度」を変更する方法を示した説明図である。FIG. 11 is an explanatory diagram showing a method of changing “corrected person image degree”, “corrected landscape image degree”, and “corrected night view image degree” according to values corrected by a user in a modified example.

符号の説明Explanation of symbols

10…印刷装置、 12…インク吐出ヘッド、 100…スキャナ部、
200…プリンタ部、 240…印刷キャリッジ、 241…印字ヘッド、
242…インクカートリッジ、 243…インクカートリッジ、
260…制御回路、 300…操作パネル
DESCRIPTION OF SYMBOLS 10 ... Printing apparatus, 12 ... Ink discharge head, 100 ... Scanner part,
200: Printer unit, 240: Print carriage, 241: Print head,
242 ... Ink cartridge, 243 ... Ink cartridge,
260 ... control circuit, 300 ... operation panel

Claims (8)

撮影対象を写すことによって生成された画像データを解析することにより、該画像デー
タを撮影対象に基づいて所定の複数の類別に分類した後、該類別に応じた補正を加える画
像処理装置であって、
前記画像データに加える補正内容を、前記類別毎に記憶している補正内容記憶手段と、
前記画像データを解析することにより、該画像データの前記各類別に対する合致度を検
出する合致度検出手段と、
前記検出された各類別の合致度を修正する合致度修正手段と、
前記類別毎に記憶されている補正内容を、前記修正された合致度に応じた割合で反映さ
せることにより、前記画像データに補正を加える画像データ補正手段と
を備える画像処理装置。
An image processing apparatus that analyzes image data generated by copying a shooting target, classifies the image data into a plurality of predetermined classes based on the shooting target, and then performs correction according to the class. ,
Correction content storage means for storing correction content to be added to the image data for each category;
A degree-of-match detection means for detecting a degree of match for each classification of the image data by analyzing the image data;
A degree-of-match correction means for correcting the degree of match of each detected category;
An image processing apparatus comprising: image data correction means for correcting the image data by reflecting the correction content stored for each category at a rate corresponding to the corrected degree of match.
請求項1に記載の画像処理装置であって、
前記各類別の合致度の組と、該各々の合致度に加える修正量とが対応付けられた合致度
修正テーブルを記憶している合致度修正テーブル記憶手段を備え、
前記合致度修正手段は、前記画像データの各類別に対する合致度から前記合致度修正テ
ーブルを参照することによって前記修正量を決定した後、該各類別に対する合致度を修正
する手段である画像処理装置。
The image processing apparatus according to claim 1,
A degree-of-matching correction table storage means for storing a degree-of-matching correction table in which a set of matching levels for each category is associated with a correction amount to be added to each degree of matching;
The degree-of-match correction means is an image processing apparatus that, after determining the correction amount by referring to the degree-of-match correction table based on the degree of match for each classification of the image data, corrects the degree of match for each classification. .
請求項2に記載の画像処理装置であって、
前記補正後の画像データに基づいて画像を出力する補正画像出力手段と、
前記各類別の合致度に対して加えた修正量を、前記出力された画像に基づいて変更する
修正量変更手段と、
前記画像データから検出された各類別についての合致度と、該各々の合致度に対する変
更後の修正量とを検出して、前記合致度修正テーブルに反映させる合致度修正テーブル反
映手段と
を備える画像処理装置。
The image processing apparatus according to claim 2,
Corrected image output means for outputting an image based on the corrected image data;
A correction amount changing means for changing the correction amount added to the degree of match for each category based on the output image;
An image comprising: a degree-of-match correction table reflecting means for detecting the degree of matching for each category detected from the image data and the amount of correction after the change to each degree of matching, and reflecting the detected amount in the degree-of-matching correction table Processing equipment.
撮影対象を写すことによって生成された画像データを解析することにより、該画像デー
タを撮影対象に基づいて所定の複数の類別に分類した後、該類別に応じた補正を加えて画
像を印刷する印刷装置であって、
前記画像データに加える補正内容を、前記類別毎に記憶している補正内容記憶手段と、
前記画像データを解析することにより、該画像データの前記各類別に対する合致度を検
出する合致度検出手段と、
前記検出された各類別の合致度を修正する合致度修正手段と、
前記類別毎に記憶されている補正内容を、前記修正された合致度に応じた割合で反映さ
せることにより、前記画像データに補正を加える画像データ補正手段と、
前記補正された画像データに基づいて画像を印刷する画像印刷手段と
を備える印刷装置。
Print that analyzes the image data generated by copying the object to be photographed, classifies the image data into a plurality of predetermined classes based on the object to be photographed, and then prints the image with corrections according to the classes A device,
Correction content storage means for storing correction content to be added to the image data for each category;
A degree-of-match detection means for detecting a degree of match for each classification of the image data by analyzing the image data;
A degree-of-match correction means for correcting the degree of match of each detected category;
Image data correction means for correcting the image data by reflecting the correction content stored for each category at a rate corresponding to the corrected degree of match;
An image printing unit that prints an image based on the corrected image data.
撮影対象を写すことによって生成された画像データを解析することにより、該画像デー
タを撮影対象に基づいて所定の複数の類別に分類した後、該類別に応じた補正を加える画
像処理方法であって、
前記画像データに加える補正内容を、前記類別毎に記憶している第1の工程と、
前記画像データを解析することにより、該画像データの前記各類別に対する合致度を検
出する第2の工程と、
前記検出された各類別の合致度を修正する第3の工程と、
前記類別毎に記憶されている補正内容を、前記修正された合致度に応じた割合で反映さ
せることにより、前記画像データに補正を加える第4の工程と
を備える画像処理方法。
An image processing method for analyzing image data generated by copying a shooting target, classifying the image data into a plurality of predetermined classes based on the shooting target, and then performing correction according to the classification ,
A first step of storing correction contents to be added to the image data for each category;
A second step of analyzing the image data to detect a degree of matching of the image data with respect to each category;
A third step of correcting the degree of matching of each detected category;
And a fourth step of correcting the image data by reflecting the correction content stored for each category at a rate corresponding to the corrected degree of match.
撮影対象を写すことによって生成された画像データを解析することにより、該画像デー
タを撮影対象に基づいて所定の複数の類別に分類した後、該類別に応じた補正を加えて画
像を印刷する印刷方法であって、
前記画像データに加える補正内容を、前記類別毎に記憶している工程(A)と、
前記画像データを解析することにより、該画像データの前記各類別に対する合致度を検
出する工程(B)と、
前記検出された各類別の合致度を修正する工程(C)と、
前記類別毎に記憶されている補正内容を、前記修正された合致度に応じた割合で反映さ
せることにより、前記画像データに補正を加える工程(D)と、
前記補正された画像データに基づいて画像を印刷する工程(E)と
を備える印刷方法。
Print that analyzes the image data generated by copying the object to be photographed, classifies the image data into a plurality of predetermined classes based on the object to be photographed, and then prints the image with corrections according to the classes A method,
(A) storing correction contents to be added to the image data for each category;
Analyzing the image data to detect a degree of match for each classification of the image data (B);
A step (C) of correcting the degree of matching of each detected category;
A step (D) of correcting the image data by reflecting the correction content stored for each category in a proportion corresponding to the corrected degree of match;
And a step (E) of printing an image based on the corrected image data.
撮影対象を写すことによって生成された画像データを解析することにより、該画像デー
タを撮影対象に基づいて所定の複数の類別に分類した後、該類別に応じた補正を加える方
法を、コンピュータを用いて実現するためのプログラムであって、
前記画像データに加える補正内容を、前記類別毎に記憶している第1の機能と、
前記画像データを解析することにより、該画像データの前記各類別に対する合致度を検
出する第2の機能と、
前記検出された各類別の合致度を修正する第3の機能と、
前記類別毎に記憶されている補正内容を、前記修正された合致度に応じた割合で反映さ
せることにより、前記画像データに補正を加える第4の機能と
をコンピュータを用いて実現させるプログラム。
Using a computer, a method for classifying the image data into a plurality of predetermined classes based on the shooting target by analyzing the image data generated by copying the shooting target, and then performing correction according to the classification A program for realizing
A first function storing correction contents to be added to the image data for each of the categories;
A second function of detecting the degree of match for each classification of the image data by analyzing the image data;
A third function for correcting the degree of match of each detected category;
A program for realizing, using a computer, a fourth function for correcting the image data by reflecting the correction content stored for each category at a rate corresponding to the corrected degree of match.
撮影対象を写すことによって生成された画像データを解析することにより、該画像デー
タを撮影対象に基づいて所定の複数の類別に分類した後、該類別に応じた補正を加えて画
像を印刷する方法を、コンピュータを用いて実現するためのプログラムであって、
前記画像データに加える補正内容を、前記類別毎に記憶している機能(A)と、
前記画像データを解析することにより、該画像データの前記各類別に対する合致度を検
出する機能(B)と、
前記検出された各類別の合致度を修正する機能(C)と、
前記類別毎に記憶されている補正内容を、前記修正された合致度に応じた割合で反映さ
せることにより、前記画像データに補正を加える機能(D)と、
前記補正された画像データに基づいて画像を印刷する機能(E)と
をコンピュータを用いて実現させるプログラム。
A method of printing image after analyzing image data generated by copying a shooting target and classifying the image data into a plurality of predetermined classes based on the shooting target and then applying correction according to the classification Is a program for realizing using a computer,
A function (A) for storing correction contents to be added to the image data for each category;
A function (B) for detecting the degree of match of the image data with respect to each category by analyzing the image data;
A function (C) for correcting the degree of matching of each detected category;
A function (D) for correcting the image data by reflecting the correction content stored for each category at a rate corresponding to the corrected degree of match;
A program for realizing, using a computer, a function (E) for printing an image based on the corrected image data.
JP2006246397A 2006-09-12 2006-09-12 Image processing apparatus, image processing method, and program Expired - Fee Related JP4710770B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006246397A JP4710770B2 (en) 2006-09-12 2006-09-12 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006246397A JP4710770B2 (en) 2006-09-12 2006-09-12 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2008072172A true JP2008072172A (en) 2008-03-27
JP4710770B2 JP4710770B2 (en) 2011-06-29

Family

ID=39293419

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006246397A Expired - Fee Related JP4710770B2 (en) 2006-09-12 2006-09-12 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP4710770B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011097258A (en) * 2009-10-28 2011-05-12 Kyocera Mita Corp Image processing apparatus, image processing method, and image forming apparatus
JP2012120747A (en) * 2010-12-09 2012-06-28 Fujifilm Corp Ultrasound diagnostic apparatus and ultrasound image generation method
US9189776B2 (en) 2013-05-08 2015-11-17 Konica Minolta, Inc. Image editing device, image editing method, and non-transitory computer-readable recording medium encoded with image editing program
JP2019160004A (en) * 2018-03-15 2019-09-19 富士フイルム株式会社 Image discriminating device, image discrimination method, program for image discriminating device, and recording medium in which program is stored

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002064722A (en) * 2000-08-22 2002-02-28 Fuji Photo Film Co Ltd Color correcting device, color correcting method, color correction program storage medium, color correction function generator, color correction function generating method, and color correction function generating program storage medium
JP2004234069A (en) * 2003-01-28 2004-08-19 Konica Minolta Holdings Inc Image processing method, image processor and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002064722A (en) * 2000-08-22 2002-02-28 Fuji Photo Film Co Ltd Color correcting device, color correcting method, color correction program storage medium, color correction function generator, color correction function generating method, and color correction function generating program storage medium
JP2004234069A (en) * 2003-01-28 2004-08-19 Konica Minolta Holdings Inc Image processing method, image processor and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011097258A (en) * 2009-10-28 2011-05-12 Kyocera Mita Corp Image processing apparatus, image processing method, and image forming apparatus
JP2012120747A (en) * 2010-12-09 2012-06-28 Fujifilm Corp Ultrasound diagnostic apparatus and ultrasound image generation method
US9189776B2 (en) 2013-05-08 2015-11-17 Konica Minolta, Inc. Image editing device, image editing method, and non-transitory computer-readable recording medium encoded with image editing program
JP2019160004A (en) * 2018-03-15 2019-09-19 富士フイルム株式会社 Image discriminating device, image discrimination method, program for image discriminating device, and recording medium in which program is stored
CN110276238A (en) * 2018-03-15 2019-09-24 富士胶片株式会社 Image discriminating device, image discriminating method and the recording medium for being stored with program
JP2022066413A (en) * 2018-03-15 2022-04-28 富士フイルム株式会社 Image discriminating device, image discrimination method, program for image discriminating device, and recording medium in which program is stored
US11620853B2 (en) 2018-03-15 2023-04-04 Fujifilm Corporation Image discrimination apparatus, image discrimination method, program of image discrimination apparatus, and recording medium on which program is stored

Also Published As

Publication number Publication date
JP4710770B2 (en) 2011-06-29

Similar Documents

Publication Publication Date Title
US20050259281A1 (en) Method, apparatus and computer program for transforming digital colour images
JP2005310068A (en) Method for correcting white of eye, and device for executing the method
JP2008017365A (en) Apparatus and method for processing picture, and program
US7844110B2 (en) Method of processing image data and apparatus operable to execute the same
JP4407842B2 (en) Print control apparatus and print control method
US7940964B2 (en) Method and image processor for processing image data to adjust for brightness in face, and method and apparatus for printing with adjusted image data
US20070273908A1 (en) Image processing apparatus, printing apparatus, image processing method, color correction table setting method, and printing method.
JP4710770B2 (en) Image processing apparatus, image processing method, and program
JP4788393B2 (en) Image processing apparatus, image processing method, and image processing program
JP2009239394A (en) Coloring image generating apparatus and method
JP2008148007A (en) Image processor, printer, image processing method and printing method
JP2006324987A (en) Photographic image processing method, photographic image processing program, and photographic image processing module
JP2007190885A (en) Printing device, image processor, printing method and image processing method
JP2008067296A (en) Method of processing image and apparatus of processing image
JP4389951B2 (en) Image processing device
US7912367B2 (en) Image processing system
US20070171477A1 (en) Method of printing image and apparatus operable to execute the same, and method of processing image and apparatus operable to execute the same
JP2005252710A (en) Image processing apparatus, image processing method, and image processing program
JP2008054164A (en) Image processor, printer, image processing method and printing method
JP2008109432A (en) Image processing apparatus, printer, image processing method and printing method
JP2008044295A (en) Printer, image processor, image copying method, and image processing method
JP2007098745A (en) Printer, image processor, printing method, and image processing method
JP2008028802A (en) Unit, method and program for processing image, and printer
JP2005148916A (en) Face selection method for density correction and apparatus for implementing the method
JP2007223189A (en) Printer, image processor, printing method, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110307

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees