JP2007223189A - Printer, image processor, printing method, and image processing method - Google Patents

Printer, image processor, printing method, and image processing method Download PDF

Info

Publication number
JP2007223189A
JP2007223189A JP2006047892A JP2006047892A JP2007223189A JP 2007223189 A JP2007223189 A JP 2007223189A JP 2006047892 A JP2006047892 A JP 2006047892A JP 2006047892 A JP2006047892 A JP 2006047892A JP 2007223189 A JP2007223189 A JP 2007223189A
Authority
JP
Japan
Prior art keywords
image data
image
person
representative
tooth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006047892A
Other languages
Japanese (ja)
Inventor
Kazunori Yoshizaki
和徳 吉▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2006047892A priority Critical patent/JP2007223189A/en
Publication of JP2007223189A publication Critical patent/JP2007223189A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enable even a person's image to be constantly printed with high image quality. <P>SOLUTION: A part, in which the person's teeth is seen, is detected from among image data to be printed, so that image data (representative image data) representing image data on the part can be generated. After the image data on the teeth part are corrected so that the representative image data can correspond to target data which are preset as the preferable color of the person's teeth, the image is printed on the basis of the acquired image data. The correction of the color of the person's teeth to the preferable color enables the person's image to be printed with an agreeable impression. This prevents the misunderstanding that the whole image is lower in quality than a real image because the person in the image cannot be seen with the preferable impression, and enables the printing of the high-quality image on which the performance of the printer is sufficiently exerted. Additionally, a white balance can also be attained on the basis of the color of the teeth part. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、人物を含んで撮影した画像を印刷する技術に関する。   The present invention relates to a technique for printing an image taken including a person.

インクジェットプリンタを初めとする家庭用の各種プリンタは、大掛かりな装置を要することなく、手軽にカラー画像を印刷することができるという利点を有しているため、画像の出力装置として広く使用されている。また、このようなプリンタにおいては、単に手軽に印刷するだけでなく、高画質な画像を印刷可能とするために、使用するインク種類の多色化や、画像処理技術の改良、更には、インクドットを形成して画像を印刷するタイプのプリンタでは多サイズのドットを形成可能とするなど、各種の技術が開発されている(例えば、特許文献1、特許文献2など)。その結果、今日では、デジタルカメラで撮影した画像を、いわゆる銀塩フィルムから焼き付けたカラー写真と比べても、何ら遜色のない程に十分な高画質で印刷することが可能となっている。   Various household printers such as inkjet printers are widely used as image output devices because they have the advantage of easily printing color images without requiring a large-scale device. . Also, in such a printer, in addition to simply printing, in order to be able to print high-quality images, it is possible to increase the number of ink types used, improve image processing technology, Various types of technologies have been developed, such as making it possible to form multi-sized dots in printers that print dots and print images (for example, Patent Document 1 and Patent Document 2). As a result, it is now possible to print an image taken with a digital camera with a sufficiently high image quality that is comparable to a color photograph printed from a so-called silver salt film.

特開平10−175318号公報JP-A-10-175318 特開2000−6445号公報Japanese Patent Laid-Open No. 2000-6445

しかし、人物を含む画像を印刷した場合には、実際には十分な高画質な画像が得られているにも拘わらず、好ましい画像が得られない場合があり、その結果、印刷画質が十分ではないかのように誤解されてしまうことがあるという問題があった。   However, when an image including a person is printed, a satisfactory image may not be obtained even though a sufficiently high-quality image is actually obtained. There was a problem that it might be misunderstood as if it were not.

この発明は、上述した課題を解決するためになされたものであり、人物を含む画像でも、常に十分な高画質の画像を印刷することが可能な技術の提供を目的とする。   The present invention has been made to solve the above-described problem, and an object of the present invention is to provide a technique capable of always printing a sufficiently high-quality image even for an image including a person.

上述した課題の少なくとも一部を解決するために、本発明の第1の印刷装置は次の構成を採用した。すなわち、
少なくとも人物を含んで撮影された画像の画像データを受け取って、該画像を印刷する印刷装置であって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する歯部分検出手段と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する代表画像データ生成手段と、
前記代表画像データが、予め設定しておいた目標データと一致するように、前記歯の部分の画像データを補正する画像データ補正手段と、
前記補正された画像データに基づいて前記画像を印刷する画像印刷手段と
を備えることを要旨とする。
In order to solve at least a part of the problems described above, the first printing apparatus of the present invention employs the following configuration. That is,
A printing apparatus that receives image data of an image taken including at least a person and prints the image,
A tooth part detecting means for detecting a part of a person's teeth in the image data by analyzing the image data;
Representative image data generating means for generating representative image data as image data representing the detected tooth by calculating an average value of the image data in the detected tooth portion;
Image data correction means for correcting the image data of the tooth portion so that the representative image data matches target data set in advance;
And an image printing means for printing the image based on the corrected image data.

また、上記の印刷装置に対応する本発明の第1の印刷方法は、
少なくとも人物を含んで撮影された画像の画像データを受け取って、該画像を印刷する印刷方法であって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する第1の工程と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する第2の工程と、
前記代表画像データが、予め設定しておいた目標データと一致するように、前記歯の部分の画像データを補正する第3の工程と、
前記補正された画像データに基づいて前記画像を印刷する第4の工程と
を備えることを要旨とする。
Further, the first printing method of the present invention corresponding to the printing apparatus described above is
A printing method for receiving image data of an image taken including at least a person and printing the image,
A first step of detecting a portion of the image data in which a person's teeth are reflected by analyzing the image data;
A second step of generating representative image data which is image data representing the detected tooth by calculating an average value of the image data in the detected tooth portion;
A third step of correcting the image data of the tooth portion so that the representative image data matches the preset target data;
And a fourth step of printing the image based on the corrected image data.

かかる本発明の第1の印刷装置および第1の印刷方法においては、画像データを受け取ると、人物の歯が写っている部分を検出して、その部分の画像データを代表する画像データ(代表画像データ)を生成する。そして、代表画像データが、好ましい歯の色として予め設定しておいた目標データと一致するように、歯が写っている部分の画像データを補正した後、得られた画像データに基づいて画像を印刷する。   In the first printing apparatus and the first printing method of the present invention, when image data is received, a portion in which a person's teeth are reflected is detected, and image data (representative image) representing the image data of the portion is detected. Data). Then, after correcting the image data of the portion where the tooth is reflected so that the representative image data matches the target data set in advance as a preferable tooth color, the image is obtained based on the obtained image data. Print.

こうすれば、人物が写っている画像を印刷した場合に、人物の顔を常に好ましい印象で印刷することができるので、印刷装置の性能が十分に発揮された高画質な画像を印刷することが可能となる。このようなことが可能となる理由について補足して説明する。印刷画像中に人物が写っていると観察者の注意が人物の顔の部分に引き付けられる傾向にある。そして、その人物の顔がたまたま好印象ではない状態で写っていると、たとえ、その他の部分が十分な高画質で印刷されていても、画像全体の印象が悪くなり、印刷画質が十分でないかのように誤解されてしまうことが見出された。更に、人物の顔の印象は、歯の色によって大きく左右されており、歯の色が例えばタバコのヤニで汚れた色をしていると顔全体の印象が悪くなり、逆に歯の色が爽やかな白い色をしていると顔の印象が良くなることが分かった。これらの知見から明らかなように、画像中で歯が写っている部分を検出して、その部分が、好ましい印象の色で印刷されるように、画像データを補正しておけば、人物を好印象に印刷することができる。このため、印刷画質が十分でないかのように誤解されることが無くなるので、印刷装置の性能が十分に発揮された高画質な画像を得ることが可能となる。   In this way, when an image showing a person is printed, the face of the person can always be printed with a favorable impression, so that a high-quality image with sufficient performance of the printing apparatus can be printed. It becomes possible. The reason why this is possible will be described supplementarily. If a person appears in the printed image, the viewer's attention tends to be attracted to the face of the person. And if the person's face happens to be in a state that doesn't look good, even if the other parts are printed with sufficient image quality, the impression of the entire image will deteriorate, and the print image quality will not be sufficient. It was found that it was misunderstood like. Furthermore, the impression of a person's face is greatly influenced by the color of the teeth. If the color of the teeth is stained with, for example, cigarette dust, the impression of the entire face is worsened. It turned out that the impression of the face improves when it has a refreshing white color. As is clear from these findings, it is preferable to detect a portion where teeth appear in the image and correct the image data so that the portion is printed with a preferable impression color. Can be printed on the impression. For this reason, since it is not misunderstood as if the printing image quality is not sufficient, it is possible to obtain a high-quality image in which the performance of the printing apparatus is sufficiently exhibited.

また、かかる本発明の印刷装置においては、歯の部分の画像データを、次のようにして補正することとしても良い。すなわち、歯の色を補正するための目標データを、予め複数記憶しておき、この中から1の目標データを選択可能としておく。そして、歯の部分を検出したら、この部分の代表画像データが、選択した目標データと一致するように、画像データを補正することとしても良い。   Further, in the printing apparatus of the present invention, the image data of the tooth portion may be corrected as follows. That is, a plurality of target data for correcting the tooth color is stored in advance, and one target data can be selected from these. When the tooth portion is detected, the image data may be corrected so that the representative image data of this portion matches the selected target data.

こうすれば、必要に応じて歯の色をより好ましい色に補正して印刷することができるので、印刷装置の性能を十分に引き出して、より高画質な画像を印刷することが可能となる。   In this way, the tooth color can be corrected to a more preferable color as necessary, so that the performance of the printing apparatus can be sufficiently drawn and a higher quality image can be printed.

また、従来の技術が有する前述した課題の少なくとも一部を解決するために、本発明の第2の印刷装置は次の構成を採用した。すなわち、
少なくとも人物を含んで撮影された画像の画像データを受け取って、該画像を印刷する印刷装置であって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する歯部分検出手段と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する代表画像データ生成手段と、
前記代表画像データが、予め設定しておいた基準の白色の画像データと一致するように、前記画像データの色調を補正する色調補正手段と、
前記色調が補正された画像データに基づいて前記画像を印刷する画像印刷手段と
を備えることを要旨とする。
Further, in order to solve at least a part of the above-described problems of the conventional technology, the second configuration of the present invention employs the following configuration. That is,
A printing apparatus that receives image data of an image taken including at least a person and prints the image,
A tooth part detecting means for detecting a part of a person's teeth in the image data by analyzing the image data;
Representative image data generating means for generating representative image data as image data representing the detected tooth by calculating an average value of the image data in the detected tooth portion;
Color tone correction means for correcting the color tone of the image data so that the representative image data matches the preset reference white image data;
An image printing means for printing the image based on the image data whose color tone has been corrected.

また、上記の印刷装置に対応する本発明の第2の印刷方法は、
少なくとも人物を含んで撮影された画像の画像データを受け取って、該画像を印刷する印刷方法であって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する工程(A)と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する工程(B)と、
前記代表画像データが、予め設定しておいた基準の白色の画像データと一致するように、前記画像データの色調を補正する工程(C)と、
前記色調が補正された画像データに基づいて前記画像を印刷する工程(D)と
を備えることを要旨とする。
Further, the second printing method of the present invention corresponding to the printing apparatus described above is
A printing method for receiving image data of an image taken including at least a person and printing the image,
Analyzing the image data to detect a portion of the image data in which a person's teeth are reflected (A);
(B) generating representative image data as image data representing the detected tooth by calculating an average value of the image data in the detected tooth portion;
A step (C) of correcting the color tone of the image data so that the representative image data matches the reference white image data set in advance;
And a step (D) of printing the image based on the image data whose color tone is corrected.

かかる本発明の第2の印刷装置および第2の印刷方法においては、予め基準の白色となる画像データを設定しておき、歯の部分を代表する画像データ(代表画像データ)が、基準の白色の画像データと一致するように全体の画像データを補正することとしても良い。   In the second printing apparatus and the second printing method of the present invention, image data to be a reference white color is set in advance, and image data representing a tooth portion (representative image data) is a reference white color. The entire image data may be corrected so as to match the image data.

こうすれば、歯の色を好ましい色で印刷することができるだけでなく、いわゆるホワイトバランスを取ることにより、画像全体の色調を修正して好ましい画像を印刷することができる。尚、このとき、画像全体の色調は、歯の部分が基準の白色となるように補正するとともに、歯の部分だけは、基準の白色とは異なって別に設定された色に補正することも可能である。   In this way, not only can the tooth color be printed in a preferred color, but also by taking a so-called white balance, the color tone of the entire image can be corrected and a preferred image can be printed. At this time, the color tone of the entire image is corrected so that the tooth portion becomes a reference white color, and only the tooth portion can be corrected to a color set different from the reference white color. It is.

また、上述した本発明の第1の印刷装置あるいは第1の印刷方法によって画像を印刷するためには、画像データに所定の画像処理を施して、歯の色を好ましい色に補正しておく処理が必要になる点に着目すれば、本願発明は、次のように画像処理装置および画像処理方法として把握することも可能である。すなわち、本発明の第1の画像処理装置は、
少なくとも人物を含んで撮影された画像の画像データを受け取って、所定の画像処理を行う画像処理装置であって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する歯部分検出手段と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する代表画像データ生成手段と、
前記代表画像データが、予め設定しておいた目標データと一致するように、前記歯の部分の画像データを補正する画像データ補正手段と
を備えることを要旨とする。
In addition, in order to print an image using the first printing apparatus or the first printing method of the present invention described above, a process of performing predetermined image processing on the image data and correcting the tooth color to a preferable color. If attention is paid to the point that the above is required, the present invention can be grasped as an image processing apparatus and an image processing method as follows. That is, the first image processing apparatus of the present invention is
An image processing apparatus that receives image data of an image captured including at least a person and performs predetermined image processing,
A tooth part detecting means for detecting a part of a person's teeth in the image data by analyzing the image data;
Representative image data generating means for generating representative image data as image data representing the detected tooth by calculating an average value of the image data in the detected tooth portion;
The gist of the invention is that the representative image data comprises image data correction means for correcting the image data of the tooth portion so that the representative image data matches preset target data.

また、上記の画像処理装置に対応する本発明の第1の画像処理方法は、
少なくとも人物を含んで撮影された画像の画像データを受け取って、所定の画像処理を行う画像処理方法であって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する工程(1)と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する工程(2)と、
前記代表画像データが、予め設定しておいた目標データと一致するように、前記歯の部分の画像データを補正する工程(3)と
を備えることを要旨とする。
Further, the first image processing method of the present invention corresponding to the above-described image processing apparatus is as follows:
An image processing method for receiving image data of an image captured including at least a person and performing predetermined image processing,
Analyzing the image data to detect a portion of the image data in which a person's teeth are reflected (1);
A step (2) of generating representative image data as image data representing the detected tooth by calculating an average value of the image data in the detected tooth portion;
And a step (3) of correcting the image data of the tooth portion so that the representative image data matches preset target data.

更に、上述した本発明の第2の印刷装置に対応する本発明の第2の画像処理装置は、
少なくとも人物を含んで撮影された画像の画像データを受け取って、所定の画像処理を行う画像処理装置であって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する歯部分検出手段と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する代表画像データ生成手段と、
前記代表画像データが、予め設定しておいた基準の白色の画像データと一致するように、前記画像データの色調を補正する色調補正手段と
を備えることを要旨とする。
Furthermore, the second image processing apparatus of the present invention corresponding to the second printing apparatus of the present invention described above is
An image processing apparatus that receives image data of an image captured including at least a person and performs predetermined image processing,
A tooth part detecting means for detecting a part of a person's teeth in the image data by analyzing the image data;
Representative image data generating means for generating representative image data as image data representing the detected tooth by calculating an average value of the image data in the detected tooth portion;
The gist of the invention is that the representative image data includes a color tone correcting unit that corrects the color tone of the image data so that the representative image data matches the preset reference white image data.

また、上記の画像処理装置に対応する本発明の第2の画像処理方法は、
少なくとも人物を含んで撮影された画像の画像データを受け取って、所定の画像処理を行う画像処理方法であって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する工程(ア)と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する工程(イ)と、
前記代表画像データが、予め設定しておいた基準の白色の画像データと一致するように、前記画像データの色調を補正する工程(ウ)と
を備えることを要旨とする。
The second image processing method of the present invention corresponding to the above image processing apparatus is
An image processing method for receiving image data of an image captured including at least a person and performing predetermined image processing,
Analyzing the image data to detect a portion of the image data where a person's teeth are reflected (a);
A step (a) of generating representative image data as image data representing the detected tooth by calculating an average value of the image data in the detected tooth portion;
And a step (c) of correcting the color tone of the image data so that the representative image data matches preset reference white image data.

これら本発明の画像処理装置および画像処理方法においては、画像データを受け取ると、画像の中で人物の歯が写っている部分を検出し、歯が好ましい色となるように画像データを補正することができる。従って、得られた画像データを用いて画像を印刷あるいは表示すれば、人物が写っている画像でも、常に高画質な画像として出力することが可能となる。   In these image processing apparatuses and image processing methods of the present invention, when image data is received, a portion of the image in which a person's teeth are reflected is detected, and the image data is corrected so that the teeth have a preferable color. Can do. Therefore, if an image is printed or displayed using the obtained image data, an image showing a person can always be output as a high-quality image.

更に本発明は、上述した印刷方法あるいは画像処理方法を実現するためのプログラムをコンピュータに読み込ませ、所定の機能を実行させることにより、コンピュータを用いて実現することも可能である。従って、本発明は次のようなプログラム、あるいは該プログラムを記録した記録媒体としての態様も含んでいる。すなわち、上述した第1の印刷方法に対応する本発明のプログラムは、
少なくとも人物を含んで撮影された画像の画像データを受け取って、該画像を印刷する方法を、コンピュータを用いて実現するためのプログラムであって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する第1の機能と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する第2の機能と、
前記代表画像データが、予め設定しておいた目標データと一致するように、前記歯の部分の画像データを補正する第3の機能と、
前記補正された画像データに基づいて前記画像を印刷する第4の機能と
をコンピュータにより実現することを要旨とする。
Furthermore, the present invention can be realized using a computer by causing a computer to read a program for realizing the above-described printing method or image processing method and executing a predetermined function. Therefore, the present invention includes the following program or a mode as a recording medium on which the program is recorded. That is, the program of the present invention corresponding to the first printing method described above is
A program for realizing, using a computer, a method for receiving image data of an image photographed including at least a person and printing the image,
A first function for detecting a portion of the image data in which a person's teeth are reflected by analyzing the image data;
A second function of generating representative image data, which is image data representing the detected tooth, by calculating an average value of the image data in the detected tooth portion;
A third function for correcting the image data of the tooth portion so that the representative image data matches target data set in advance;
The gist of the present invention is that a fourth function for printing the image based on the corrected image data is realized by a computer.

また、上記のプログラムに対応する本発明の記録媒体は、
少なくとも人物を含んで撮影された画像の画像データを受け取って、該画像を印刷するプログラムを、コンピュータで読取可能に記録した記録媒体であって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する第1の機能と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する第2の機能と、
前記代表画像データが、予め設定しておいた目標データと一致するように、前記歯の部分の画像データを補正する第3の機能と、
前記補正された画像データに基づいて前記画像を印刷する第4の機能と
をコンピュータにより実現するプログラムを記録していることを要旨とする。
The recording medium of the present invention corresponding to the above program is
A recording medium which records image data of an image photographed including at least a person and prints the image so as to be readable by a computer,
A first function for detecting a portion of the image data in which a person's teeth are reflected by analyzing the image data;
A second function of generating representative image data, which is image data representing the detected tooth, by calculating an average value of the image data in the detected tooth portion;
A third function for correcting the image data of the tooth portion so that the representative image data matches target data set in advance;
The gist of the present invention is that a program for realizing a fourth function for printing the image based on the corrected image data by a computer is recorded.

また、上述した第2の印刷方法に対応する本発明のプログラムは、
少なくとも人物を含んで撮影された画像の画像データを受け取って、該画像を印刷する方法を、コンピュータを用いて実現するためのプログラムであって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する機能(A)と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する機能(B)と、
前記代表画像データが、予め設定しておいた基準の白色の画像データと一致するように、前記画像データの色調を補正する機能(C)と、
前記色調が補正された画像データに基づいて前記画像を印刷する機能(D)と
をコンピュータにより実現することを要旨とする。
The program of the present invention corresponding to the second printing method described above is
A program for realizing, using a computer, a method for receiving image data of an image photographed including at least a person and printing the image,
A function (A) for detecting a portion in which human teeth are reflected in the image data by analyzing the image data;
A function (B) for generating representative image data as image data representing the detected tooth by calculating an average value of the image data in the detected tooth portion;
A function (C) for correcting the color tone of the image data so that the representative image data matches a preset reference white image data;
The gist is to realize a function (D) of printing the image on the basis of the image data whose color tone is corrected by a computer.

また、上記のプログラムに対応する本発明の記録媒体は、
少なくとも人物を含んで撮影された画像の画像データを受け取って、該画像を印刷するプログラムを、コンピュータで読取可能に記録した記録媒体であって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する機能(A)と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する機能(B)と、
前記代表画像データが、予め設定しておいた基準の白色の画像データと一致するように、前記画像データの色調を補正する機能(C)と、
前記色調が補正された画像データに基づいて前記画像を印刷する機能(D)と
をコンピュータにより実現するプログラムを記録していることを要旨とする。
The recording medium of the present invention corresponding to the above program is
A recording medium which records image data of an image photographed including at least a person and prints the image so as to be readable by a computer,
A function (A) for detecting a portion in which human teeth are reflected in the image data by analyzing the image data;
A function (B) for generating representative image data as image data representing the detected tooth by calculating an average value of the image data in the detected tooth portion;
A function (C) for correcting the color tone of the image data so that the representative image data matches a preset reference white image data;
The gist of the invention is that a program for realizing a function (D) for printing the image on the basis of the image data whose color tone has been corrected is recorded by a computer.

更に、上述した第1の画像処理方法に対応する本発明のプログラムは、
少なくとも人物を含んで撮影された画像の画像データを受け取って、所定の画像処理を行う方法を、コンピュータを用いて実現するためのプログラムであって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する機能(1)と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する機能(2)と、
前記代表画像データが、予め設定しておいた目標データと一致するように、前記歯の部分の画像データを補正する機能(3)と
をコンピュータにより実現することを要旨とする。
Furthermore, the program of the present invention corresponding to the first image processing method described above is
A program for realizing, using a computer, a method for receiving image data of an image captured including at least a person and performing predetermined image processing,
A function (1) for detecting a portion in which human teeth are reflected in the image data by analyzing the image data;
A function (2) for generating representative image data as image data representing the detected tooth by calculating an average value of the image data in the detected tooth portion;
The gist of the present invention is that a function (3) for correcting the image data of the tooth portion is realized by a computer so that the representative image data matches preset target data.

また、上記のプログラムに対応する本発明の記録媒体は、
少なくとも人物を含んで撮影された画像の画像データを受け取って、所定の画像処理をプログラムを、コンピュータで読取可能に記録した記録媒体であって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する機能(1)と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する機能(2)と、
前記代表画像データが、予め設定しておいた目標データと一致するように、前記歯の部分の画像データを補正する機能(3)と
をコンピュータにより実現するプログラムを記録していることを要旨とする。
The recording medium of the present invention corresponding to the above program is
A recording medium which receives image data of an image photographed including at least a person and records a predetermined image processing program readable by a computer,
A function (1) for detecting a portion in which human teeth are reflected in the image data by analyzing the image data;
A function (2) for generating representative image data as image data representing the detected tooth by calculating an average value of the image data in the detected tooth portion;
The gist is that a program for realizing the function (3) for correcting the image data of the tooth portion by a computer is recorded so that the representative image data matches preset target data. To do.

また、上述した第2の画像処理方法に対応する本発明のプログラムは、
少なくとも人物を含んで撮影された画像の画像データを受け取って、所定の画像処理を行う方法を、コンピュータを用いて実現するためのプログラムであって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する機能(ア)と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する機能(イ)と、
前記代表画像データが、予め設定しておいた基準の白色の画像データと一致するように、前記画像データの色調を補正する機能(ウ)と
をコンピュータにより実現することを要旨とする。
The program of the present invention corresponding to the second image processing method described above is
A program for realizing, using a computer, a method for receiving image data of an image captured including at least a person and performing predetermined image processing,
By analyzing the image data, a function (a) for detecting a portion in which human teeth are reflected in the image data;
A function (a) for generating representative image data, which is image data representing the detected tooth, by calculating an average value of the image data in the detected tooth portion;
The gist of the present invention is to realize, by a computer, a function (c) for correcting the color tone of the image data so that the representative image data matches the preset reference white image data.

また、上記のプログラムに対応する本発明の記録媒体は、
少なくとも人物を含んで撮影された画像の画像データを受け取って、所定の画像処理をプログラムを、コンピュータで読取可能に記録した記録媒体であって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する機能(ア)と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する機能(イ)と、
前記代表画像データが、予め設定しておいた基準の白色の画像データと一致するように、前記画像データの色調を補正する機能(ウ)と
をコンピュータにより実現するプログラムを記録していることを要旨とする。
The recording medium of the present invention corresponding to the above program is
A recording medium which receives image data of an image photographed including at least a person and records a predetermined image processing program readable by a computer,
By analyzing the image data, a function (a) for detecting a portion in which human teeth are reflected in the image data;
A function (a) for generating representative image data, which is image data representing the detected tooth, by calculating an average value of the image data in the detected tooth portion;
A program for recording a program for realizing the function (c) for correcting the color tone of the image data so that the representative image data matches the reference white image data set in advance is recorded. The gist.

これらのプログラムをコンピュータに読み込んで、上記の各種機能を実現させれば、人物が写った画像でも、常に高画質の画像として印刷することが可能となる。   If these programs are read into a computer and the various functions described above are realized, even an image showing a person can always be printed as a high-quality image.

以下では、上述した本願発明の内容を明確にするために、次のような順序に従って実施例を説明する。
A.実施例の概要:
B.装置構成:
B−1.全体構成:
B−2.内部構成:
B−2−1.スキャナ部の内部構成:
B−2−2.プリンタ部の内部構成:
C.画像印刷処理:
D.歯色補正処理:
E.変形例:
(1)第1の変形例:
(2)第2の変形例:
Hereinafter, in order to clarify the contents of the present invention described above, examples will be described in the following order.
A. Summary of Examples:
B. Device configuration:
B-1. overall structure:
B-2. Internal configuration:
B-2-1. Internal configuration of the scanner unit:
B-2-2. Internal configuration of the printer unit:
C. Image printing process:
D. Tooth color correction processing:
E. Variation:
(1) First modification:
(2) Second modification:

A.実施例の概要 :
実施例の詳細な説明に入る前に、図1を参照しながら、実施例の概要について説明しておく。図1は、本実施例の印刷装置10の概要を示した説明図である。図示した印刷装置10には、インク滴を吐出する印字ヘッド12が設けられており、印字ヘッド12を印刷媒体P上で往復動させながら、インク滴を吐出してインクドットを形成することによって画像を印刷するいわゆるインクジェットプリンタである。
A. Summary of Examples:
Prior to detailed description of the embodiment, an outline of the embodiment will be described with reference to FIG. FIG. 1 is an explanatory diagram showing an overview of a printing apparatus 10 according to the present embodiment. The illustrated printing apparatus 10 is provided with a print head 12 that ejects ink droplets, and an image is formed by ejecting ink droplets and forming ink dots while reciprocating the print head 12 on the print medium P. Is a so-called inkjet printer.

こうしたインクジェットプリンタは印刷画質が年々向上しており、今日では、銀塩フィルムから焼き付けた写真と比べても、何ら遜色のない程に十分な高画質な画像を印刷することが可能となっている。しかし、人物を含む画像を印刷する場合には、何故か、十分な印刷画質を有すると感じられない場合が生じていた。そこで、このようなことが生じる原因を追及した結果、印刷画像中に人物が写っていると観察者の注意が人物の顔の部分に引き付けられる傾向にあり、その人物の顔がたまたま好印象ではない状態で写っていると、たとえ、その他の部分が十分な高画質で印刷されていても、画像全体の画質が十分でないかのように感じてしまうということが判明した。更に、人物の顔の印象は、歯の色によって大きく左右されており、歯の色が、例えばタバコのヤニで汚れているなどの悪い色をしていると顔全体の印象が悪くなり、逆に歯の色が爽やかな白い色をしていると顔の印象が良くなることが見出された。   Such inkjet printers have improved in print quality year by year, and nowadays, it is possible to print a sufficiently high-quality image that is comparable to a photo baked from a silver salt film. . However, when printing an image including a person, for some reason, it may not be felt that the image has sufficient print quality. Therefore, as a result of investigating the cause of such a situation, if a person appears in the printed image, the viewer's attention tends to be attracted to the face part of the person. It was found that if the image was taken out of the image, the image quality of the entire image would not be sufficient even if the other parts were printed with sufficient image quality. Furthermore, the impression of a person's face is greatly influenced by the color of the teeth. If the color of the teeth is bad, such as being stained with cigarette stains, the impression of the entire face will be worsened, and vice versa. It has been found that the impression of the face is improved when the teeth have a refreshing white color.

本実施例の印刷装置10には、こうした知見を踏まえて、常に十分な画質の画像を印刷可能とするべく、図1に示されているように、「歯部分検出モジュール」、「代表画像データ生成モジュール」、「画像データ補正モジュール」などのモジュールが搭載されている。尚、「モジュール」とは、印刷装置10が画像を印刷するために内部で行っている一連の処理を、機能に着目して分類したものである。従って「モジュール」は、プログラムの一部として実現することもできるし、あるいは、特定の機能を有する論理回路を用いて実現したり、更には、これらを組合せることによって実現することが可能である。   Based on such knowledge, the printing apparatus 10 according to the present embodiment can always print an image with sufficient image quality, as shown in FIG. Modules such as “generation module” and “image data correction module” are mounted. The “module” is a series of processing that is internally performed by the printing apparatus 10 to print an image, focusing on the function. Therefore, the “module” can be realized as a part of the program, or can be realized by using a logic circuit having a specific function, or can be realized by combining them. .

このような本実施例の印刷装置10では、印刷しようとする画像の画像データを受け取ると、各モジュールで次のような画像処理を施した後、印字ヘッド12を駆動して印刷媒体P上に画像を印刷する。先ず、「歯部分検出モジュール」では、受け取った画像データを解析することにより、人物の歯が写っている部分を抽出する。次いで、「代表画像データ生成モジュール」は、歯の部分での画像データの平均値を算出することにより、歯の部分を代表する画像データ(代表画像データ)を生成する。「画像データ補正モジュール」には、爽やかな白い歯の色で印刷されるような目標の画像データが予め設定されており、「代表画像データ生成モジュール」から代表画像データを受け取ると、その代表画像データが、予め設定しておいた画像データと一致するように、歯の部分の画像データを補正する。こうして補正された画像データは「画像印刷モジュール」に供給され、印字ヘッド12を駆動するための信号に変換されて、印刷媒体P上に画像が印刷される。   In the printing apparatus 10 according to the present embodiment, when image data of an image to be printed is received, the following image processing is performed by each module, and then the print head 12 is driven onto the print medium P. Print the image. First, the “tooth portion detection module” extracts the portion in which the person's teeth are reflected by analyzing the received image data. Next, the “representative image data generation module” generates image data representing the tooth portion (representative image data) by calculating an average value of the image data in the tooth portion. In the “image data correction module”, target image data to be printed with a refreshing white tooth color is set in advance. When the representative image data is received from the “representative image data generation module”, the representative image data is received. The image data of the tooth portion is corrected so that the data matches the preset image data. The image data corrected in this way is supplied to the “image printing module”, converted into a signal for driving the print head 12, and an image is printed on the print medium P.

このようにして画像を印刷してやれば、人物を含んだ画像を印刷する場合、歯の色が爽やかな白い色に補正されるので、顔を好ましい印象で印刷することができ、その結果、どのような画像でも、十分に高い画質で印刷することが可能となる。以下では、このような印刷装置10について、実施例に基づいて詳しく説明する。   If the image is printed in this way, when printing an image including a person, the tooth color is corrected to a refreshing white color, so the face can be printed with a favorable impression, and as a result Even a simple image can be printed with sufficiently high image quality. Below, such a printing apparatus 10 is demonstrated in detail based on an Example.

B.装置構成 :
B−1.全体構成 :
図2は、本実施例の印刷装置10の外観形状を示す斜視図である。図示されるように、本実施例の印刷装置10は、スキャナ部100と、プリンタ部200と、スキャナ部100およびプリンタ部200の動作を設定するための操作パネル300などから構成されている。スキャナ部100は、印刷された画像を読み込んで画像データを生成するスキャナ機能を有しており、プリンタ部200は、画像データを受け取って印刷媒体上に画像を印刷するプリンタ機能を有している。また、スキャナ部100で読み取った画像(原稿画像)をプリンタ部200から出力すれば、コピー機能を実現することも可能である。すなわち、本実施例の印刷装置10は、単独でスキャナ機能、プリンタ機能、コピー機能を実現可能な、いわゆるスキャナ・プリンタ・コピー複合装置(以下、SPC複合装置という)となっている。
B. Device configuration :
B-1. overall structure :
FIG. 2 is a perspective view showing the external shape of the printing apparatus 10 according to the present embodiment. As illustrated, the printing apparatus 10 according to the present exemplary embodiment includes a scanner unit 100, a printer unit 200, an operation panel 300 for setting operations of the scanner unit 100 and the printer unit 200, and the like. The scanner unit 100 has a scanner function of reading a printed image and generating image data, and the printer unit 200 has a printer function of receiving image data and printing an image on a print medium. . Further, if an image (original image) read by the scanner unit 100 is output from the printer unit 200, a copy function can be realized. That is, the printing apparatus 10 according to the present embodiment is a so-called scanner / printer / copy combined apparatus (hereinafter referred to as an SPC combined apparatus) that can independently realize a scanner function, a printer function, and a copy function.

図3は、原稿画像を読み込むために、印刷装置10の上部に設けられた原稿台カバー102を開いた様子を示す説明図である。図示されているように、原稿台カバー102を上に開くと、透明な原稿台ガラス104が設けられており、その内部には、スキャナ機能を実現するための後述する各種機構が搭載されている。原稿画像を読み込む際には、図示されているように原稿台カバー102を開いて原稿台ガラス104の上に原稿画像を置き、原稿台カバー102を閉じてから操作パネル300上のボタンを操作する。こうすれば、原稿画像を直ちに画像データに変換することが可能である。   FIG. 3 is an explanatory diagram showing a state in which the document table cover 102 provided on the upper part of the printing apparatus 10 is opened in order to read the document image. As shown in the drawing, when the document table cover 102 is opened upward, a transparent document table glass 104 is provided, and various mechanisms to be described later for realizing the scanner function are mounted therein. . When reading a document image, as shown in the figure, the document table cover 102 is opened, the document image is placed on the document table glass 104, the document table cover 102 is closed, and then the buttons on the operation panel 300 are operated. . In this way, it is possible to immediately convert the document image into image data.

また、スキャナ部100は全体が一体のケース内に収納された構成となっており、スキャナ部100とプリンタ部200とは、印刷装置10の背面側でヒンジ機構204(図4参照)によって結合されている。このため、スキャナ部100の手前側を持ち上げることにより、ヒンジの部分でスキャナ部100のみを回転させることが可能となっている。   The scanner unit 100 is entirely housed in an integrated case, and the scanner unit 100 and the printer unit 200 are coupled by a hinge mechanism 204 (see FIG. 4) on the back side of the printing apparatus 10. ing. For this reason, by lifting the front side of the scanner unit 100, it is possible to rotate only the scanner unit 100 at the hinge portion.

図4は、スキャナ部100の手前側を持ち上げて回転させた様子を示した斜視図である。図示するように、本実施例の印刷装置10では、スキャナ部100の手前側を持ち上げることで、プリンタ部200の上面を露出させることが可能である。プリンタ部200の内部には、プリンタ機能を実現するための後述する各種機構や、スキャナ部100を含めて印刷装置10全体の動作を制御するための後述する制御回路260、更には、スキャナ部100やプリンタ部200などに電力を供給するための電源回路(図示は省略)なども設けられている。また、図4に示されているように、プリンタ部200の上面には、開口部202が設けられており、インクカートリッジなどの消耗品の交換や、紙詰まりの処理、その他の軽微な修理などを簡便に行うことが可能となっている。   FIG. 4 is a perspective view illustrating a state in which the front side of the scanner unit 100 is lifted and rotated. As shown in the figure, in the printing apparatus 10 of the present embodiment, the upper surface of the printer unit 200 can be exposed by lifting the front side of the scanner unit 100. Inside the printer unit 200, various mechanisms to be described later for realizing the printer function, a control circuit 260 to be described later for controlling the operation of the entire printing apparatus 10 including the scanner unit 100, and the scanner unit 100 are further described. And a power supply circuit (not shown) for supplying power to the printer unit 200 and the like. Also, as shown in FIG. 4, an opening 202 is provided on the upper surface of the printer unit 200, and replacement of consumables such as ink cartridges, paper jam handling, and other minor repairs are performed. Can be performed easily.

B−2.内部構成 :
図5は、本実施例の印刷装置10の内部構成を概念的に示した説明図である。前述したように、印刷装置10にはスキャナ部100とプリンタ部200とが設けられており、スキャナ部100の内部にはスキャナ機能を実現するための各種構成が搭載され、プリンタ部200の内部にはプリンタ機能を実現するための各種構成が搭載されている。以下では、初めにスキャナ部100の内部構成について説明し、次いでプリンタ部200の内部構成について説明する。
B-2. Internal configuration:
FIG. 5 is an explanatory diagram conceptually showing the internal configuration of the printing apparatus 10 of this embodiment. As described above, the printing apparatus 10 includes the scanner unit 100 and the printer unit 200, and various configurations for realizing the scanner function are mounted in the scanner unit 100. Is equipped with various configurations for realizing the printer function. Hereinafter, the internal configuration of the scanner unit 100 will be described first, and then the internal configuration of the printer unit 200 will be described.

B−2−1.スキャナ部の内部構成 :
スキャナ部100は、原稿画像をセットする透明な原稿台ガラス104と、セットされた原稿画像を押さえておくための原稿台カバー102と、セットされた原稿画像を読み込む読取キャリッジ110と、読取キャリッジ110を読取方向(主走査方向)に移動させる駆動ベルト120と、駆動ベルト120に動力を供給する駆動モータ122と、読取キャリッジ110の動きをガイドするガイド軸106などから構成されている。また、駆動モータ122や読取キャリッジ110の動作は、後述する制御回路260によって制御されている。
B-2-1. Internal configuration of the scanner unit:
The scanner unit 100 includes a transparent platen glass 104 on which a document image is set, a document platen cover 102 for holding the set document image, a reading carriage 110 for reading the set document image, and a reading carriage 110. The driving belt 120 is configured to move in the reading direction (main scanning direction), the driving motor 122 supplies power to the driving belt 120, the guide shaft 106 that guides the movement of the reading carriage 110, and the like. The operations of the drive motor 122 and the reading carriage 110 are controlled by a control circuit 260 described later.

制御回路260の制御の下で駆動モータ122を回転させると、駆動ベルト120を介してその動きが読取キャリッジ110に伝達され、その結果、読取キャリッジ110は、ガイド軸106に導かれながら駆動モータ122の回転角度に応じて読取方向(主走査方向)に移動するようになっている。また、駆動ベルト120は、アイドラプーリ124によって絶えず適度に張った状態に調整されており、このため、駆動モータ122を逆回転させれば、回転角度に応じた距離だけ読取キャリッジ110を逆方向に移動させることも可能となっている。   When the driving motor 122 is rotated under the control of the control circuit 260, the movement is transmitted to the reading carriage 110 via the driving belt 120, and as a result, the reading carriage 110 is guided to the guide shaft 106 while being driven by the driving motor 122. It moves in the reading direction (main scanning direction) according to the rotation angle. Further, the drive belt 120 is constantly adjusted to be in a moderately tensioned state by the idler pulley 124. Therefore, if the drive motor 122 is rotated in the reverse direction, the reading carriage 110 is moved in the reverse direction by a distance corresponding to the rotation angle. It can also be moved.

読取キャリッジ110の内部には、光源112や、レンズ114、ミラー116、CCDセンサ118などが搭載されている。光源112からの光は原稿台ガラス104に照射され、原稿台ガラス104の上にセットされた原稿画像で反射する。この反射光は、ミラー116によってレンズ114に導かれ、レンズ114によって集光されてCCDセンサ118で検出される。CCDセンサ118は、光の強度を電気信号に変換するフォトダイオードが、読取キャリッジ110の移動方向(主走査方向)と直交する方向に列状に配置されたリニアセンサによって構成されている。このため、読取キャリッジ110を主走査方向に移動させながら、光源112の光を原稿画像に照射し、CCD118によって反射光強度を検出することで、原稿画像に対応する電気信号を得ることができる。   Inside the reading carriage 110, a light source 112, a lens 114, a mirror 116, a CCD sensor 118, and the like are mounted. Light from the light source 112 is applied to the platen glass 104 and reflected by a document image set on the platen glass 104. The reflected light is guided to the lens 114 by the mirror 116, collected by the lens 114, and detected by the CCD sensor 118. The CCD sensor 118 includes a linear sensor in which photodiodes that convert light intensity into an electrical signal are arranged in a row in a direction orthogonal to the moving direction (main scanning direction) of the reading carriage 110. Therefore, by moving the reading carriage 110 in the main scanning direction and irradiating the original image with light from the light source 112 and detecting the reflected light intensity by the CCD 118, an electrical signal corresponding to the original image can be obtained.

また、光源112は、RGBの3色の発光ダイオードによって構成されており、所定の周期でR色、G色、B色の光を順次、照射することが可能となっており、これに応じてCCD118では、R色、G色、B色の反射光が順次、検出されるようになっている。一般に、画像の赤色の部分はR色の光を反射するが、G色やB色の光はほとんど反射しないから、R色の反射光は画像のR成分を表している。同様に、G色の反射光は画像のG成分を表しており、B色の反射光は画像のB成分を表している。従って、RGB3色の光を所定の周期で切り替えながら原稿画像に照射し、これに同期してCCD118で反射光強度を検出すれば、原稿画像のR成分、G成分、B成分を検出することができ、カラー画像を読み込むことが可能となっている。尚、光源112が照射する光の色を切り替えている間も読取キャリッジ110は移動しているから、RGBの各成分を検出する画像の位置は、厳密には、読取キャリッジ110の移動量に相当する分だけ異なっているが、このずれは、各成分を読み込んだ後に、画像処理によって補正することが可能である。   Further, the light source 112 is composed of light emitting diodes of three colors of RGB, and can sequentially irradiate light of R color, G color, and B color at a predetermined cycle. In the CCD 118, reflected light of R color, G color, and B color is sequentially detected. In general, the red portion of the image reflects R light, but hardly reflects G or B light, so the R reflected light represents the R component of the image. Similarly, the reflected light of G color represents the G component of the image, and the reflected light of B color represents the B component of the image. Accordingly, if the original image is irradiated while switching the light of three colors of RGB at a predetermined cycle and the reflected light intensity is detected by the CCD 118 in synchronization therewith, the R component, G component and B component of the original image can be detected. It is possible to read a color image. Note that since the reading carriage 110 is moved even while the color of the light emitted by the light source 112 is switched, the position of the image for detecting each component of RGB corresponds to the movement amount of the reading carriage 110 strictly. However, this deviation can be corrected by image processing after reading each component.

B−2−2.プリンタ部の内部構成 :
次に、プリンタ部200の内部構成について説明する。プリンタ部200には、印刷装置10の全体の動作を制御する制御回路260と、印刷媒体上に画像を印刷するための印刷キャリッジ240と、印刷キャリッジ240を主走査方向に移動させる機構と、印刷媒体の紙送りを行うための機構などが搭載されている。
B-2-2. Internal configuration of the printer unit:
Next, the internal configuration of the printer unit 200 will be described. The printer unit 200 includes a control circuit 260 that controls the overall operation of the printing apparatus 10, a print carriage 240 that prints an image on a print medium, a mechanism that moves the print carriage 240 in the main scanning direction, and printing. A mechanism for feeding media is mounted.

印刷キャリッジ240は、Kインクを収納するインクカートリッジ242と、Cインク、Mインク、Yインクの各種インクを収納するインクカートリッジ243と、底面側に設けられた印字ヘッド241などから構成されており、印字ヘッド241には、インク滴を吐出するインク吐出ヘッドがインク毎に設けられている。印刷キャリッジ240にインクカートリッジ242,243を装着すると、カートリッジ内の各インクは図示しない導入管を通じて、各色のインク吐出ヘッド244ないし247に供給される。   The print carriage 240 includes an ink cartridge 242 that stores K ink, an ink cartridge 243 that stores various inks of C ink, M ink, and Y ink, a print head 241 provided on the bottom surface side, and the like. The print head 241 is provided with an ink discharge head for discharging ink droplets for each ink. When the ink cartridges 242 and 243 are mounted on the print carriage 240, each ink in the cartridge is supplied to the ink discharge heads 244 to 247 of each color through an introduction pipe (not shown).

印刷キャリッジ240を主走査方向に移動させる機構は、印刷キャリッジ240を駆動するためのキャリッジベルト231と、キャリッジベルト231に動力を供給するキャリッジモータ230と、キャリッジベルト231に絶えず適度な張力を付与しておくための張力プーリ232と、印刷キャリッジ240の動きをガイドするキャリッジガイド233と、印刷キャリッジ240の原点位置を検出する原点位置センサ234などから構成されている。後述する制御回路260の制御の下でキャリッジモータ230を回転させると、回転角度に応じた距離だけ印刷キャリッジ240を主走査方向に移動させることが可能である。また、キャリッジモータ230を逆回転させれば、印刷キャリッジ240を逆方向に移動させることも可能となっている。   The mechanism that moves the print carriage 240 in the main scanning direction includes a carriage belt 231 for driving the print carriage 240, a carriage motor 230 that supplies power to the carriage belt 231, and an appropriate tension is constantly applied to the carriage belt 231. And a carriage guide 233 for guiding the movement of the print carriage 240, an origin position sensor 234 for detecting the origin position of the print carriage 240, and the like. When the carriage motor 230 is rotated under the control of the control circuit 260 described later, the print carriage 240 can be moved in the main scanning direction by a distance corresponding to the rotation angle. Further, if the carriage motor 230 is rotated in the reverse direction, the print carriage 240 can be moved in the reverse direction.

印刷媒体の紙送りを行うための機構は、印刷媒体を裏面側から支えるプラテン236と、プラテン236を回転させて紙送りを行う紙送りモータ235などから構成されている。後述する制御回路260の制御の下で紙送りモータ235を回転させることで、回転角度に応じた距離だけ印刷媒体を副走査方向に紙送りすることが可能となっている。   The mechanism for feeding the print medium includes a platen 236 that supports the print medium from the back side, a paper feed motor 235 that feeds the paper by rotating the platen 236, and the like. By rotating the paper feed motor 235 under the control of the control circuit 260 described later, the print medium can be fed in the sub-scanning direction by a distance corresponding to the rotation angle.

制御回路260は、CPUを中心として、ROMや、RAM、デジタルデータをアナログ信号に変換するD/A変換器、更には、周辺機器との間でデータのやり取りを行うための周辺機器インターフェースPIFなどから構成されている。制御回路260は、印刷装置10全体の動作を制御しており、スキャナ部100に搭載された光源112や、駆動モータ122、CCD118とデータをやり取りしながら、これらの動作を制御している。   The control circuit 260 has a CPU, a ROM, a RAM, a D / A converter that converts digital data into an analog signal, and a peripheral device interface PIF for exchanging data with peripheral devices. It is composed of The control circuit 260 controls the overall operation of the printing apparatus 10, and controls these operations while exchanging data with the light source 112, the drive motor 122, and the CCD 118 mounted on the scanner unit 100.

また、制御回路260は、キャリッジモータ230および紙送りモータ235を駆動して印刷キャリッジ240の主走査および副走査を行いながら、各色のインク吐出ヘッド244ないし247に駆動信号を供給してインク滴を吐出させる制御も行っている。インク吐出ヘッド244ないし247に供給する駆動信号は、コンピュータ20や、デジタルカメラ30、外部記憶装置32などから画像データを読み込んで、後述する画像処理を行うことによって生成する。もちろん、スキャナ部100で読み込んだ画像データに画像処理を施すことにより、駆動信号を生成することも可能である。こうして制御回路260の制御の下で、印刷キャリッジ240を主走査および副走査させながら、インク吐出ヘッド244ないし247からインク滴を吐出して印刷媒体上に各色のインクドットを形成することによって、カラー画像を印刷することが可能となっている。もちろん、制御回路260内で画像処理を行うのではなく、画像処理が施されたデータをコンピュータ20から受け取って、このデータに従って印刷キャリッジ240の主走査および副走査を行いながらインク吐出ヘッド244ないし247を駆動することも可能である。   Further, the control circuit 260 drives the carriage motor 230 and the paper feed motor 235 to supply the drive signals to the ink discharge heads 244 to 247 of the respective colors while performing the main scanning and the sub scanning of the printing carriage 240, thereby generating ink droplets. Control to discharge is also performed. The drive signals supplied to the ink ejection heads 244 to 247 are generated by reading image data from the computer 20, the digital camera 30, the external storage device 32, etc., and performing image processing to be described later. Of course, it is also possible to generate a drive signal by performing image processing on the image data read by the scanner unit 100. In this way, under the control of the control circuit 260, the ink droplets are ejected from the ink ejection heads 244 to 247 to form the ink dots of the respective colors on the printing medium while the print carriage 240 is moved in the main scan and the sub scan. It is possible to print an image. Of course, instead of performing image processing in the control circuit 260, the ink ejection heads 244 to 247 receive data on which image processing has been performed from the computer 20, and perform main scanning and sub-scanning of the print carriage 240 according to this data. Can also be driven.

また、制御回路260は、操作パネル300ともデータをやり取り可能に接続されており、操作パネル300上に設けられた各種のボタンを操作することにより、スキャナ機能や、プリンタ機能の詳細な動作モードを設定することが可能となっている。更には、コンピュータ20から、周辺機器インターフェースPIFを介して詳細な動作モードを設定することも可能である。   The control circuit 260 is also connected to the operation panel 300 so as to be able to exchange data. By operating various buttons provided on the operation panel 300, detailed operation modes of the scanner function and the printer function are set. It is possible to set. Further, it is possible to set a detailed operation mode from the computer 20 via the peripheral device interface PIF.

図6は、各色のインク吐出ヘッド244ないし247に、インク滴を吐出する複数のノズルNzが形成されている様子を示した説明図である。図示するように、各色のインク吐出ヘッドの底面には、各色のインク滴を吐出する4組のノズル列が形成されており、1のノズル列には、48個のノズルNzがノズルピッチkの間隔を空けて千鳥状に配列されている。制御回路260からは、これらノズルNzのそれぞれに駆動信号が供給され、各ノズルNzは駆動信号に従って、それぞれのインクによるインク滴を吐出するようになっている。   FIG. 6 is an explanatory diagram showing a state in which a plurality of nozzles Nz for ejecting ink droplets are formed on the ink ejection heads 244 to 247 of each color. As shown in the figure, four sets of nozzle rows for ejecting ink droplets of each color are formed on the bottom surface of the ink ejection head for each color, and 48 nozzles Nz have a nozzle pitch k in one nozzle row. They are arranged in a staggered pattern at intervals. A drive signal is supplied from the control circuit 260 to each of these nozzles Nz, and each nozzle Nz discharges an ink droplet of each ink according to the drive signal.

以上に説明したように、印刷装置10のプリンタ部200は、インク吐出ノズルに駆動信号を供給し、駆動信号に従ってインク滴を吐出して印刷媒体上にインクドットを形成することによって画像を印刷している。また、インク吐出ノズルを駆動するための制御データは、画像の印刷に先立って、画像データに所定の画像処理を施すことによって生成している。以下では、画像データに画像処理を施して制御データを生成し、得られた制御データに基づいてインクドットを形成することにより画像を印刷する処理(画像印刷処理)について説明する。   As described above, the printer unit 200 of the printing apparatus 10 prints an image by supplying drive signals to the ink discharge nozzles and discharging ink droplets according to the drive signals to form ink dots on the print medium. ing. Control data for driving the ink discharge nozzles is generated by performing predetermined image processing on the image data prior to image printing. Hereinafter, a process (image printing process) of performing image processing on image data to generate control data, and printing an image by forming ink dots based on the obtained control data will be described.

C.画像印刷処理 :
図7は、本実施例の印刷装置10で画像を印刷するために行われている画像印刷処理の流れを示すフローチャートである。かかる処理は、印刷装置10に搭載された制御回路260が、内蔵したCPUやRAM、ROMなどの機能を用いて実行する処理である。以下、フローチャートに従って説明する。
C. Image printing process:
FIG. 7 is a flowchart illustrating a flow of image printing processing performed for printing an image by the printing apparatus 10 according to the present exemplary embodiment. Such a process is a process executed by the control circuit 260 mounted on the printing apparatus 10 using functions such as a built-in CPU, RAM, and ROM. Hereinafter, it demonstrates according to a flowchart.

制御回路260は、画像印刷処理を開始すると先ず初めに、印刷しようとする画像データの読み込みを行う(ステップS100)。ここでは、画像データはR,G,B各色の階調値によって表現されたRGB画像データであるものとする。   When the image printing process is started, the control circuit 260 first reads the image data to be printed (step S100). Here, it is assumed that the image data is RGB image data expressed by gradation values of R, G, and B colors.

次いで、読み込んだ画像データの解像度を、プリンタ部200が印刷するための解像度(印刷解像度)に変換する処理を行う(ステップS102)。読み込んだ画像データの解像度が印刷解像度よりも低い場合は、隣接する画素の間に補間演算を行って新たな画像データを設定することで、より高い解像度に変換する。逆に、読み込んだ画像データの解像度が印刷解像度よりも高い場合は、隣接する画素の間から一定の割合で画像データを間引くことによって、より低い解像度に変換する。解像度変換処理では、読み込んだ画像データに対して適切な割合で画像データを生成あるいは間引くことによって、読み込んだ解像度を印刷解像度に変換する処理を行う。   Next, a process of converting the resolution of the read image data into a resolution (printing resolution) for printing by the printer unit 200 is performed (step S102). When the resolution of the read image data is lower than the print resolution, the image data is converted to a higher resolution by performing interpolation calculation between adjacent pixels and setting new image data. Conversely, when the resolution of the read image data is higher than the print resolution, the image data is converted to a lower resolution by thinning out the image data at a certain rate from between adjacent pixels. In the resolution conversion process, the read resolution is converted into the print resolution by generating or thinning out the image data at an appropriate ratio with respect to the read image data.

こうして画像データの解像度を印刷解像度に変換したら、制御回路260は、画像データに対して歯の色を補正する処理(歯色補正処理)を開始する(ステップS104)。すなわち、画像に人物が写っている場合には、その人物の歯の色を、爽やかな白い色に補正して顔が好ましい印象で印刷されるように、画像データを補正する処理を行う。前述したように、人物が写っている画像では、人物の顔が好印象で印刷されていないと、画像の画質が悪いかのように誤解されてしまうことがある。そして、顔の印象は、特に歯の色によって大きく左右され、歯の色を爽やかな白い色に補正しておくことで、顔の印象を大きく改善することができる。その結果、画像全体が十分に高い画質で印刷されていることを実感させることが可能となっている。歯色補正処理の詳細については、後ほど詳しく説明する。   When the resolution of the image data is converted into the print resolution in this way, the control circuit 260 starts a process for correcting the tooth color for the image data (tooth color correction process) (step S104). That is, when a person appears in the image, the process is performed to correct the image data so that the face is printed with a preferable impression by correcting the color of the person's teeth to a refreshing white color. As described above, in an image showing a person, if the face of the person is not printed with a good impression, the image may be misunderstood as if the image quality is poor. The facial impression is greatly influenced by the color of the teeth, and the facial impression can be greatly improved by correcting the dental color to a refreshing white color. As a result, it is possible to realize that the entire image is printed with sufficiently high image quality. Details of the tooth color correction processing will be described in detail later.

印刷装置10の制御回路260は、歯色補正処理を終了すると、補正後の画像データに対して色変換処理を行う(ステップS106)。ここで色変換処理とは、R,G,Bの各色で表現された画像データを、C,M,Y,K各色の階調値によって表現された画像データに変換する処理である。色変換処理は、色変換テーブル(LUT)と呼ばれる3次元の数表を参照することによって行う。   When the control circuit 260 of the printing apparatus 10 completes the tooth color correction process, the control circuit 260 performs a color conversion process on the corrected image data (step S106). Here, the color conversion process is a process of converting image data expressed in R, G, and B colors into image data expressed by gradation values of C, M, Y, and K colors. The color conversion process is performed by referring to a three-dimensional numerical table called a color conversion table (LUT).

図8は、色変換処理のために参照される色変換テーブル(LUT)を概念的に示した説明図である。ここでは、RGB各色の階調値が0〜255の値を取り得るものとする。図8に示すように、直交する3軸にR,G,B各色の階調値を取った色空間を考えると、全てのRGB画像データは、原点を頂点として一辺の長さが255の立方体(色立体)の内部の点に対応付けることができる。このことは、見方を変えれば次のように考えることもできる。すなわち、色立体をRGB各軸に直角に格子状に細分して色空間内に複数の格子点を生成すると、各格子点の座標値をRGB画像データと読み替えることができる。そこで、各格子点に、C,M,Y,Kの階調値の組合せを予め記憶しておけば、格子点に記憶されている階調値を読み出すことで、RGB画像データを、各色の階調値によって表現された画像データ(CMYK画像データ)に変換することが可能となる。   FIG. 8 is an explanatory diagram conceptually showing a color conversion table (LUT) referred to for color conversion processing. Here, it is assumed that the gradation value of each color of RGB can take a value from 0 to 255. As shown in FIG. 8, considering a color space in which gradation values of R, G, and B colors are taken on three orthogonal axes, all RGB image data are cubes whose length is one side with the origin at the top. It can be associated with a point inside (color solid). This can be thought of as follows if you change your view. That is, when a color solid is subdivided into a grid perpendicular to each axis of RGB and a plurality of grid points are generated in the color space, the coordinate values of each grid point can be read as RGB image data. Therefore, if a combination of C, M, Y, and K gradation values is stored in advance in each grid point, the RGB image data can be converted into each color by reading the gradation value stored in the grid point. It is possible to convert the image data (CMYK image data) represented by the gradation value.

例えば、画像データのR成分がRA、G成分がGA、B成分がBAであったとすると、この画像データは、色空間内のA点に対応づけられる(図8参照)。そこで、色立体を格子状に細分する小さな立方体の中から、A点を内包する立方体dVを検出し、この立方体dVの各格子点に記憶されているCMYK各色の階調値を読み出してやる。そして、これら各格子点の階調値から補間演算すればA点での階調値を求めることができる。以上に説明したように、色変換テーブルLUTとは、RGB各色の階調値の組合せで示される各格子点に、CMYK各色の階調値の組合せ(CMYK画像データ)を記憶した3次元の数表と考えることができ、色変換テーブルを参照すれば、RGB画像データをCMYK画像データに、迅速に色変換することが可能となる。   For example, if the R component of the image data is RA, the G component is GA, and the B component is BA, this image data is associated with point A in the color space (see FIG. 8). Therefore, a cube dV containing point A is detected from small cubes that subdivide the color solid into a lattice shape, and the gradation values of the CMYK colors stored in the lattice points of the cube dV are read out. Then, if the interpolation calculation is performed from the gradation values of these grid points, the gradation value at the point A can be obtained. As described above, the color conversion table LUT is a three-dimensional number in which a combination of gradation values of CMYK colors (CMYK image data) is stored at each grid point indicated by a combination of gradation values of RGB colors. It can be considered as a table, and by referring to the color conversion table, RGB image data can be quickly converted into CMYK image data.

制御回路260は、以上のようにして色変換処理を終了すると、ハーフトーン処理を開始する(図7のステップS108)。ハーフトーン処理とは、次のような処理である。色変換処理によって得られたCMYK画像データは、C,M,Y,Kの各色について階調値0〜階調値255の範囲で表現された画像データである。これに対してプリンタ部200は、ドットを形成することによって画像を印刷するから、256階調によって表現されたCMYK画像データを、ドットの形成有無によって表現された画像データ(ドットデータ)に変換する処理が必要となる。ハーフトーン処理とは、このようにCMYK各色の画像データをドットデータに変換する処理である。   When the color conversion process is completed as described above, the control circuit 260 starts the halftone process (step S108 in FIG. 7). Halftone processing is the following processing. The CMYK image data obtained by the color conversion process is image data expressed in the range of gradation value 0 to gradation value 255 for each color of C, M, Y, and K. In contrast, since the printer unit 200 prints an image by forming dots, the CMYK image data expressed by 256 gradations is converted into image data (dot data) expressed by the presence / absence of dot formation. Processing is required. Halftone processing is processing for converting image data of CMYK colors into dot data in this way.

ハーフトーン処理を行う手法としては、誤差拡散法やディザ法などの種々の手法を適用することができる。誤差拡散法は、ある画素についてドットの形成有無を判断したことでその画素に発生する階調表現の誤差を、周辺の画素に拡散するとともに、周囲から拡散されてきた誤差を解消するように、各画素についてのドット形成の有無を判断していく手法である。また、ディザ法は、ディザマトリックスにランダムに設定されている閾値とCMYK各色の画像データとを画素毎に比較して、画像データの方が大きい画素にはドットを形成すると判断し、逆に閾値の方が大きい画素についてはドットを形成しないと判断することで、各画素についてのドットデータを得る手法である。ハーフトーン手法としては、誤差拡散法またはディザ法の何れの手法を用いることも可能であるが、本実施例の印刷装置10では、ディザ法を用いてハーフトーン処理を行うものとする。   As a method for performing the halftone process, various methods such as an error diffusion method and a dither method can be applied. The error diffusion method is to determine whether or not dots are formed for a certain pixel so as to diffuse an error in gradation expression generated in that pixel to surrounding pixels and to eliminate the error diffused from the surroundings. This is a method of determining the presence or absence of dot formation for each pixel. In the dither method, a threshold value randomly set in the dither matrix and image data of each color of CMYK are compared for each pixel, and it is determined that a dot is formed in a pixel having a larger image data. This is a technique for obtaining dot data for each pixel by determining that a dot is not formed for a larger pixel. As the halftone method, any one of the error diffusion method and the dither method can be used, but the printing apparatus 10 of the present embodiment performs the halftone process using the dither method.

図9は、ディザマトリックスの一部を拡大して例示した説明図である。図示したマトリックスには、縦横それぞれ64画素、合計4096個の画素に、階調値0〜255の範囲から万遍なく選択された閾値がランダムに記憶されている。ここで、閾値の階調値が0〜255の範囲から選択されているのは、本実施例では色変換後のCMYK各色の画像データが1バイトデータであり、階調値が0〜255の値を取り得ることに対応するものである。尚、ディザマトリックスの大きさは、図9に例示したように縦横64画素分に限られるものではなく、縦と横の画素数が異なるものも含めて、種々の大きさに設定することが可能である。   FIG. 9 is an explanatory diagram illustrating an enlarged part of the dither matrix. In the illustrated matrix, threshold values that are uniformly selected from the range of gradation values 0 to 255 are randomly stored in a total of 4096 pixels, 64 pixels in the vertical and horizontal directions. Here, the threshold gradation value is selected from the range of 0 to 255. In this embodiment, the image data of each color of CMYK after color conversion is 1-byte data, and the gradation value is 0 to 255. It corresponds to the possibility of taking a value. Note that the size of the dither matrix is not limited to 64 pixels in the vertical and horizontal directions as illustrated in FIG. 9, and can be set to various sizes including those having different numbers of vertical and horizontal pixels. It is.

図10は、ディザマトリックスを参照しながら、画素毎にドット形成の有無を判断している様子を概念的に示した説明図である。尚、かかる判断は、CMYKの各色について行われるが、以下では説明が煩雑となることを避けるために、CMYK各色の画像データを区別することなく、単に画像データと称するものとする。   FIG. 10 is an explanatory diagram conceptually showing a state in which the presence / absence of dot formation is determined for each pixel while referring to the dither matrix. This determination is made for each color of CMYK, but in the following, in order to avoid complicated explanation, image data of each color of CMYK is simply referred to as image data without being distinguished.

ドット形成有無の判断に際しては、先ず、判断の対象として着目している画素(着目画素)についての画像データの階調値と、ディザマトリックス中の対応する位置に記憶されている閾値とを比較する。図中に示した細い破線の矢印は、着目画素の画像データを、ディザマトリックス中の対応する位置に記憶されている閾値と比較していることを模式的に表したものである。そして、ディザマトリックスの閾値よりも着目画素の画像データの方が大きい場合には、その画素にはドットを形成するものと判断する。逆に、ディザマトリックスの閾値の方が大きい場合には、その画素にはドットを形成しないものと判断する。図10に示した例では、画像の左上隅にある画素の画像データは「97」であり、ディザマトリックス上でこの画素に対応する位置に記憶されている閾値は「1」である。従って、左上隅の画素については、画像データの方がディザマトリックスの閾値よりも大きいから、この画素にはドットを形成すると判断する。図10中に実線で示した矢印は、この画素にはドットを形成すると判断して、判断結果をメモリに書き込んでいる様子を模式的に表したものである。   When determining the presence or absence of dot formation, first, the gradation value of the image data for the pixel of interest (the pixel of interest) as the object of determination is compared with the threshold value stored at the corresponding position in the dither matrix. . The thin broken arrow shown in the figure schematically represents that the image data of the pixel of interest is compared with the threshold value stored at the corresponding position in the dither matrix. If the image data of the pixel of interest is larger than the threshold value of the dither matrix, it is determined that a dot is formed for that pixel. On the other hand, when the threshold value of the dither matrix is larger, it is determined that no dot is formed in the pixel. In the example shown in FIG. 10, the image data of the pixel at the upper left corner of the image is “97”, and the threshold value stored at the position corresponding to this pixel on the dither matrix is “1”. Accordingly, for the pixel at the upper left corner, the image data is larger than the threshold value of the dither matrix, and therefore it is determined that a dot is formed on this pixel. An arrow indicated by a solid line in FIG. 10 schematically represents a state in which it is determined that a dot is to be formed in this pixel and the determination result is written in the memory.

一方、この画素の右隣の画素については、画像データは「97」、ディザマトリックスの閾値は「177」であり、閾値の方が大きいので、この画素についてはドットを形成しないものと判断する。このように、画像データとディザマトリックスに設定された閾値とを比較することにより、ドットの形成有無を画素毎に決定することができる。ハーフトーン処理(図7のステップS108)では、C,M,Y,Kの各色の画像データに対して上述したディザ法を適用することにより、画素毎にドット形成の有無を判断してドットデータを生成する処理を行う。   On the other hand, for the pixel on the right side of this pixel, the image data is “97”, and the threshold value of the dither matrix is “177”. Since the threshold value is larger, it is determined that no dot is formed for this pixel. Thus, by comparing the image data with the threshold value set in the dither matrix, it is possible to determine whether or not dots are formed for each pixel. In the halftone process (step S108 in FIG. 7), by applying the above-described dither method to the image data of each color of C, M, Y, and K, the dot data is determined for each pixel to determine dot data. Process to generate.

図7に示すように、画像印刷処理では、ハーフトーン処理を行ってCMYK各色についてのドットデータを生成したら、今度は、インターレース処理を開始する(ステップS110)。インターレース処理とは、印字ヘッド241がドットを形成する順序でドットデータを並び替えて、各色のインク吐出ヘッド244ないし247に供給する処理である。すなわち、図6に示したように、インク吐出ヘッド244ないし247に設けられたノズルNzは副走査方向にノズルピッチkの間隔を空けて設けられているから、印刷キャリッジ240を主走査させながらインク滴を吐出すると、副走査方向にノズルピッチkの間隔を空けてドットが形成されてしまう。そこで全画素にドットを形成するためには、印刷キャリッジ240と印刷媒体との相対位置を副走査方向に移動させて、ノズルピッチkだけ隔たったドット間の画素に新たなドットを形成することが必要となる。このように、実際に画像を印刷する場合には、画像上で上方にある画素から順番にドットを形成しているわけではない。更に、主走査方向に同じ列にある画素についても、一回の主走査でドットを形成するのではなく、画質上の要請から、複数回の主走査に分けてドットを形成することとして、各回の主走査では飛び飛びの位置の画素にドットを形成することも広く行われている。   As shown in FIG. 7, in the image printing process, when halftone processing is performed to generate dot data for each color of CMYK, interlace processing is started (step S110). The interlace process is a process in which the print head 241 rearranges the dot data in the order in which dots are formed and supplies them to the ink discharge heads 244 to 247 for each color. That is, as shown in FIG. 6, the nozzles Nz provided in the ink discharge heads 244 to 247 are provided with an interval of the nozzle pitch k in the sub-scanning direction. When droplets are ejected, dots are formed at intervals of the nozzle pitch k in the sub-scanning direction. Therefore, in order to form dots in all the pixels, the relative position between the print carriage 240 and the print medium is moved in the sub-scanning direction, and new dots are formed in the pixels between the dots separated by the nozzle pitch k. Necessary. As described above, when an image is actually printed, dots are not formed in order from the upper pixel on the image. Furthermore, for pixels in the same row in the main scanning direction, instead of forming dots in a single main scan, the dots are divided into a plurality of main scans in response to image quality requirements. In this main scanning, dots are also widely formed on the pixels at the skipped positions.

これらの理由から、実際にドットの形成を開始するに先立って、C,M,Y,Kの各色について得られたドットデータを、インク吐出ヘッド244ないし247がドットを形成する順番に並び替えておく処理が必要となる。このような処理が、インターレースと呼ばれる処理である。   For these reasons, prior to actually starting dot formation, the dot data obtained for each color of C, M, Y, and K is rearranged in the order in which the ink ejection heads 244 to 247 form dots. Processing is required. Such a process is a process called interlace.

図7に示したように、インターレース処理を終了すると、インターレース処理によって並べ替えられたドットデータに従って、実際に印刷媒体上にドットを形成する処理(ドット形成処理)を開始する(ステップS112)。すなわち、キャリッジモータ230を駆動して印刷キャリッジ240を主走査させながら、順番を並び替えておいたドットデータをインク吐出ヘッド244ないし247に供給する。その結果、インク吐出ヘッド244ないし247からは、ドットデータに従ってインク滴が吐出されて、各画素に適切にドットが形成される。   As shown in FIG. 7, when the interlacing process is completed, a process for actually forming dots on the print medium (dot forming process) is started according to the dot data rearranged by the interlace process (step S112). That is, while the carriage motor 230 is driven to cause the print carriage 240 to perform main scanning, the rearranged dot data is supplied to the ink ejection heads 244 to 247. As a result, ink droplets are ejected from the ink ejection heads 244 to 247 according to the dot data, and dots are appropriately formed in each pixel.

そして、一回の主走査が終了したら、今度は、紙送りモータ235を駆動して印刷媒体を副走査方向に紙送りした後、再びキャリッジモータ230を駆動して印刷キャリッジ240を主走査させつつ、順番を並べ替えておいたドットデータをインク吐出ヘッド244ないし247に供給してドットを形成する。このような操作を繰り返し行うことにより、印刷媒体上には、C,M,Y,Kの各色のドットが画像データの階調値に応じて適切な分布で形成され、その結果として画像が印刷される。   When one main scan is completed, the paper feed motor 235 is driven to feed the print medium in the sub-scanning direction, and then the carriage motor 230 is driven again to cause the print carriage 240 to perform the main scan. The dot data whose order has been rearranged is supplied to the ink discharge heads 244 to 247 to form dots. By repeating such an operation, dots of each color of C, M, Y, and K are formed on the print medium with an appropriate distribution according to the gradation value of the image data, and as a result, the image is printed. Is done.

以上に説明した本実施例の画像印刷処理では、人物の歯の色が適切な色で印刷されるように画像データを補正している。このため、人物の顔が好印象で印刷されるようになり、その結果、印刷装置10の性能が十分に発揮された高画質な画像を印刷することが可能となっている。以下では、上述した画像印刷処理中で、歯の色を補正するために行われている歯色補正処理の詳細について説明する。   In the image printing process of the present embodiment described above, the image data is corrected so that the color of the person's teeth is printed in an appropriate color. For this reason, a person's face is printed with a good impression, and as a result, it is possible to print a high-quality image in which the performance of the printing apparatus 10 is sufficiently exhibited. Hereinafter, the details of the tooth color correction process performed to correct the tooth color during the above-described image printing process will be described.

D.歯色補正処理 :
図11は、本実施例の画像印刷処理中で行われる歯色補正処理の流れを示すフローチャートである。図示されているように、歯色補正処理では、先ず初めに、印刷しようとしている画像データを解析して、人物の歯が写っている部分を検出する処理を行う(ステップS200)。歯が写っている部分は、大まかには次のようにして検出することができる。
D. Tooth color correction processing:
FIG. 11 is a flowchart illustrating the flow of the tooth color correction process performed during the image printing process of the present embodiment. As shown in the drawing, in the tooth color correction process, first, the image data to be printed is analyzed to detect a portion where a person's teeth are reflected (step S200). The portion where the teeth are reflected can be roughly detected as follows.

先ず、画像データの中から、物体の輪郭部分を抽出する。輪郭の抽出に際しては、メディアンフィルタなどの二次元フィルタを用いてノイズを除去したり、コントラストやエッジを強調した後、二値化を行い、得られた二値化像の境界部分を物体の輪郭として抽出する。次いで、抽出した物体の中から、先ず初めに「口」の部分を検出する。「口」の検出に際しては、二値化像によって抽出した輪郭の中で、明らかに「口」ではないと思われるものを除外する処理を行う。例えば、抽出した輪郭の中で直線の割合が大きい物体については、いわゆる人工物である可能性が高く、「口」である可能性はほとんどない。このように、明らかに「口」ではないと判断できる物体を除外しておき、残った物体について、輪郭の形状から「目」、「口」、「鼻」などと思われる物体を抽出していく。   First, the contour portion of the object is extracted from the image data. When extracting the contour, use a two-dimensional filter such as a median filter to remove noise, enhance the contrast and edges, and then binarize, and use the resulting binarized image for the boundary of the object. Extract as Next, the “mouth” portion is first detected from the extracted objects. When detecting the “mouth”, processing is performed to exclude those that are clearly not “mouth” from the contour extracted from the binarized image. For example, an object having a large proportion of straight lines in the extracted contour is highly likely to be a so-called artifact, and is unlikely to be a “mouth”. In this way, objects that can be clearly judged not to be “mouths” are excluded, and objects that seem to be “eyes”, “mouth”, “nose”, etc. are extracted from the shape of the remaining objects. Go.

もし、これらの物体が本当に「目」、「口」、「鼻」などであれば、互いに所定の位置関係にあるはずである。例えば、「目」と思わしき物体が抽出されたとき、その物体が本当に「目」であれば、近くの、ほぼ同じ高さの位置に、同じ向きの「目」らしき物体が存在しているはずである。また、二つの目のほぼ中央の位置から下りた位置には、「鼻」らしき物体が存在しているはずであり、更にその下方には「口」らしき物体が存在しているはずである。このようにして、輪郭から「目」、「口」、「鼻」などと思われる物体を抽出し、抽出した物体の中から、互いの位置関係を考慮することによって、「口」が写っている部分を検出する。こうして「口」の部分を検出したら、最後に、その中の明るい領域を検出することにより「歯」の部分を検出することが可能となる。   If these objects are really “eyes”, “mouth”, “nose”, etc., they should be in a predetermined positional relationship with each other. For example, when an object that seems to be an "eye" is extracted, if the object is really an "eye", there should be an object that looks like an "eye" in the same position at the same height. It is. In addition, an object that looks like a “nose” should exist at a position descending from the position of the center of the second eye, and an object that looks like a “mouth” should exist further below. In this way, objects that seem to be “eyes”, “mouth”, “nose”, etc. are extracted from the contour, and “mouth” is reflected by considering the positional relationship among the extracted objects. Detect the part that is. When the “mouth” portion is detected in this manner, finally, the “tooth” portion can be detected by detecting a bright area therein.

図12には、このようにして抽出した「目」、「鼻」、「口」の位置関係に基づいて、「歯」が写っている部分を検出した様子が示されている。図11のステップS200では、以上のようにして、画像の中から人物の歯が写っている部分を検出する処理を行う。   FIG. 12 shows a state in which a portion including “teeth” is detected based on the positional relationship between “eyes”, “nose”, and “mouth” extracted as described above. In step S200 of FIG. 11, processing for detecting a portion in which a person's teeth are reflected from the image is performed as described above.

次いで、歯の部分が検出されたか否かを判断する(ステップS202)。すなわち、印刷しようとしている画像によって、歯が検出される場合と検出されない場合とがあるので、ステップS200では、歯の部分が検出されたか否かを判断するのである。そして、歯の部分が検出されていない場合は(ステップS202:no)、図12に示した歯色補正処理を終了して、図7の画像印刷処理に復帰する。   Next, it is determined whether or not a tooth portion has been detected (step S202). That is, depending on the image to be printed, there are cases where teeth are detected and cases where teeth are not detected. In step S200, it is determined whether or not a tooth portion has been detected. If the tooth portion is not detected (step S202: no), the tooth color correction process shown in FIG. 12 is terminated, and the process returns to the image printing process of FIG.

これに対して、歯の部分が検出されていた場合は(ステップS202:yes)、歯の部分の画像データを平均することにより、歯の部分を代表する画像データ(代表画像データ)を生成する(ステップS204)。尚、本実施例では、印刷しようとする画像データを、RGB画像データの形態で受け取っており、R,G,Bの各色成分について代表画像データを生成する。   On the other hand, when the tooth part is detected (step S202: yes), the image data representing the tooth part (representative image data) is generated by averaging the image data of the tooth part. (Step S204). In this embodiment, image data to be printed is received in the form of RGB image data, and representative image data is generated for each of the R, G, and B color components.

次いで、こうして生成した代表画像データ(すなわち、R,G,B各成分についての画像データの平均値)に基づいて、画像データの階調値を変換するための変換特性を生成する(ステップS206)。ここで、変換特性とは、変換前の画像データの階調値と、変換後の画像データの階調値とを対応付けた特性線である。予め適切な変換特性を設定しておくことで、画像データを迅速に変換することが可能となる。ここでは、歯の色は真っ白な状態(すなわち、R,G,Bの各成分ともに階調値255の状態)に補正するものとする。すると、歯の部分でR,G,Bの各成分について求めた画像データの平均値(代表画像データ)から、以下のようにして変換特性を生成することができる。   Next, a conversion characteristic for converting the gradation value of the image data is generated based on the representative image data thus generated (that is, the average value of the image data for each of the R, G, and B components) (step S206). . Here, the conversion characteristic is a characteristic line in which the gradation value of the image data before conversion is associated with the gradation value of the image data after conversion. By setting appropriate conversion characteristics in advance, it is possible to quickly convert image data. Here, it is assumed that the tooth color is corrected to a pure white state (that is, each of R, G, and B components has a gradation value of 255). Then, the conversion characteristic can be generated as follows from the average value (representative image data) of the image data obtained for the R, G, and B components in the tooth portion.

図13は、代表画像データに基づいて、変換特性を生成している様子を概念的に示した説明図である。例えば、歯の部分の代表画像データのR成分が、平均値AvRであったものとする。この階調値AvRが、目標とする階調値255に変換され、且つ、階調値AvRより高い階調値も階調値255に変換されればよいのだから、図13に示すような、横軸を変換前の階調値、縦軸を変換後の階調値とする平面上で、O点、P点、Q点の3点を直線で結ぶことによって、変換特性を設定することができる。このような操作を、G成分、およびB成分についても行うことにより、R、G、Bの各成分について、変換特性を生成することができる。図11のステップS206では、このようにして各成分についての変換特性を生成する処理を行う。   FIG. 13 is an explanatory diagram conceptually showing a state in which conversion characteristics are generated based on representative image data. For example, it is assumed that the R component of the representative image data of the tooth portion is the average value AvR. Since the gradation value AvR is converted into the target gradation value 255 and the gradation value higher than the gradation value AvR only needs to be converted into the gradation value 255, as shown in FIG. A conversion characteristic can be set by connecting three points of O point, P point, and Q point on a plane with the horizontal axis as the gradation value before conversion and the vertical axis as the gradation value after conversion. it can. By performing such an operation also on the G component and the B component, conversion characteristics can be generated for each of the R, G, and B components. In step S206 in FIG. 11, processing for generating conversion characteristics for each component is performed in this way.

次いで、歯の部分の画像データを、生成した変換特性に従って補正する処理を行う(図11のステップS208)。すなわち、検出した歯の部分に含まれる画素の画像データを読み出し、次いで、この画像データの階調値を「変換前の階調値」としたときの「変換後の階調値」を、変換特性に従って取得する。図13には、変換特性に従って「変換前の階調値」から「変換後の階調値」を取得する様子が、一点鎖線の矢印によって示されている。こうして取得した「変換後の階調値」によって、補正前の画像データの階調値を置き換えてやれば、補正後の画像データを得ることができる。このような操作を、歯の部分を構成する全ての画素について行うことにより画像データの補正を完了したら(ステップS208)、図11に示す歯色補正処理を終了して、図7の画像印刷処理に復帰する。   Next, a process of correcting the image data of the tooth portion according to the generated conversion characteristics is performed (step S208 in FIG. 11). That is, the image data of the pixels included in the detected tooth portion is read out, and then the “gradation value after conversion” when the gradation value of this image data is “gradation value before conversion” is converted. Obtain according to characteristics. In FIG. 13, the manner in which “the gradation value after conversion” is acquired from “the gradation value before conversion” according to the conversion characteristics is indicated by a one-dot chain line arrow. If the gradation value of the uncorrected image data is replaced with the “converted gradation value” thus obtained, the corrected image data can be obtained. When the correction of the image data is completed by performing such an operation for all the pixels constituting the tooth portion (step S208), the tooth color correction process shown in FIG. 11 is terminated and the image printing process of FIG. Return to.

以上に説明した本実施例の画像印刷処理によれば、印刷しようとしている画像データの中から人物の歯の部分を検出して、歯の色を、予め設定しておいたより好ましい色(ここでは真っ白な色)に補正した状態で印刷することができる。前述したように、印刷画像に人物が含まれている場合、人物の顔が好印象で写っていないと、印刷画質が高くないかのように誤解されてしまうおそれが生じるが、こうして歯の色を真っ白な色で印刷しておけば、人物の顔を好印象にすることができので、画質が高くないかのように誤解されることを回避することができる。その結果、印刷装置10の性能が十分に発揮された高画質な画像を印刷することが可能となる。   According to the image printing process of the present embodiment described above, the tooth color of the person is detected from the image data to be printed, and the tooth color is set to a more preferable color (here. Then, it is possible to print in a state corrected to a pure white color. As described above, when a person is included in the print image, if the person's face is not captured with a good impression, the print image quality may be misunderstood. Is printed in a pure white color, a person's face can be made a good impression, and misunderstanding as if the image quality is not high can be avoided. As a result, it is possible to print a high-quality image in which the performance of the printing apparatus 10 is sufficiently exhibited.

また、歯の部分の画像データを補正するに際しては、図13に示したような変換特性に従って補正している。実際の画像では、歯の色も場所によって少しずつ色が異なっているが、このように変換特性に従って補正することにより、場所による色の違いを残したまま、自然な感じに補正することが可能となる。しかも、変換特性は、前述したように、歯の部分での画像データの平均値から簡単に生成することができるので、画像データを簡単に補正することが可能となる。   Further, when correcting the image data of the tooth portion, the correction is performed according to the conversion characteristics as shown in FIG. In the actual image, the color of the tooth is also slightly different depending on the location, but by correcting according to the conversion characteristics in this way, it can be corrected to a natural feeling while leaving the color difference depending on the location. It becomes. Moreover, since the conversion characteristics can be easily generated from the average value of the image data at the tooth portion as described above, the image data can be easily corrected.

E.変形例 :
上述した本実施例の歯色補正処理には、幾つかの変形例が存在する。以下、これら変形例について簡単に説明する。
E. Modified example:
There are several variations of the tooth color correction processing of the present embodiment described above. Hereinafter, these modifications will be briefly described.

(1)第1の変形例 :
上述した歯色補正処理では、歯の部分だけ、画像データを補正するものとして説明した。しかし、歯を真っ白に補正する場合は、歯の色を基準としてホワイトバランスを取ることにより、画像全体の色調を修正することとしても良い。
(1) First modification:
In the above-described tooth color correction process, the image data is corrected only for the tooth portion. However, when correcting the teeth to be pure white, the color tone of the entire image may be corrected by taking a white balance based on the color of the teeth.

図14は、第1の変形例における歯色補正処理の流れを示すフローチャートである。第1の変形例の歯色補正処理は、図11を用いて前述した歯色補正処理とほぼ同じであるが、変換特性を用いて画像データを補正する際に、歯の部分の画像データだけでなく、全体の画像データを補正する点が異なっている。以下では、かかる相違点を中心として、第1の変形例の歯色補正処理について簡単に説明する。   FIG. 14 is a flowchart showing the flow of tooth color correction processing in the first modification. The tooth color correction process of the first modified example is substantially the same as the tooth color correction process described above with reference to FIG. 11, but only the image data of the tooth portion is used when correcting the image data using the conversion characteristics. Instead, the whole image data is corrected. Hereinafter, the tooth color correction process of the first modification will be briefly described with the difference as a center.

第1の変形例の歯色補正処理においても、図11を用いて前述した歯色補正処理と同様に、先ず初めは、画像データを解析することにより、人物の歯が写っている部分を検出する処理を行う(ステップS250)。歯が写っている部分を検出するに際しては、初めに「口」の部分を検出して、その後、「口」の中の明るい部分を検出することにより、歯の部分を検出する。   In the tooth color correction process of the first modified example, as in the tooth color correction process described above with reference to FIG. 11, first, a portion where a person's teeth are reflected is detected by analyzing image data. Is performed (step S250). When detecting the portion where the teeth are reflected, the “mouth” portion is first detected, and then the bright portion in the “mouth” is detected to detect the tooth portion.

次いで、歯の部分が検出されたか否かを判断し(ステップS252)、歯の部分が検出されていない場合は(ステップS252:no)、図14に示した第1の変形例の歯色補正処理を終了する。これに対して、歯の部分が検出されていた場合は(ステップS252:yes)、歯の部分の画像データを平均することにより、歯の部分を代表する画像データ(代表画像データ)を生成する(ステップS254)。第1の変形例においても、歯の部分の代表画像データは、R,G,Bの各色成分について生成する。そして、画像データの階調値を変換するための変換特性を、各成分毎に生成する(ステップS256)。ここまでの処理は、図11を用いて前述した歯色補正処理と同様である。   Next, it is determined whether or not a tooth portion has been detected (step S252). If a tooth portion has not been detected (step S252: no), the tooth color correction of the first modification shown in FIG. End the process. On the other hand, when the tooth part is detected (step S252: yes), the image data representing the tooth part (representative image data) is generated by averaging the image data of the tooth part. (Step S254). Also in the first modification, the representative image data of the tooth portion is generated for each of the R, G, and B color components. Then, conversion characteristics for converting the gradation value of the image data are generated for each component (step S256). The processing so far is the same as the tooth color correction processing described above with reference to FIG.

次いで、生成した変換特性に従って、画像全体の画像データを補正する処理を行う(ステップS258)。すなわち、図11を用いて前述した歯色補正処理では、歯の部分の画像データのみを変換特性に従って変換したが、第1の変形例の歯色補正処理では、歯の部分も含めて、画像全体を補正することとしている。こうして、全ての画像データを補正したら、図14に示す第1の変形例の歯色補正処理を終了して、図7の画像印刷処理に復帰する。   Next, a process for correcting the image data of the entire image is performed according to the generated conversion characteristics (step S258). That is, in the tooth color correction process described above with reference to FIG. 11, only the image data of the tooth portion is converted according to the conversion characteristics. However, in the tooth color correction process of the first modification, the image including the tooth portion is also included. We are going to correct the whole. When all the image data is corrected in this way, the tooth color correction process of the first modification shown in FIG. 14 is terminated, and the process returns to the image printing process of FIG.

以上に説明した第1の変形例の歯色補正処理においては、歯の色を真っ白に補正すると同時に、画像全体の色調も修正することができる。この点について補足して説明する。例えば、夕方に撮影した画像や、黄色い光源を用いて撮影した画像では、光源の色の影響を受けて、白い歯の部分に色が付いてしまうことがある。このように、色の付いた光源を用いて撮影した画像では、画像全体の色調が、光源の色調の側にずれたものとなってしまう。このような色調のずれを正確に補正するためには、撮影に用いた光源がどのような色の光源であったかを知る必要があるため、必ずしも容易なことではない。しかし、人物の歯は通常、真っ白に近いので、歯の部分の色は、ほぼ光源の色に近いと考えることができる。そこで、歯の部分を代表する画像データ(代表画像データ)が真っ白な色となるように、画像全体を補正してやれば、光源による影響を補正して、画像を正しい色に修正することができる。その結果、より高画質な画像を印刷することが可能となるのである。   In the tooth color correction process of the first modification described above, the color of the teeth can be corrected to white and at the same time, the color tone of the entire image can be corrected. This point will be supplementarily described. For example, in an image photographed in the evening or an image photographed using a yellow light source, the white teeth may be colored due to the influence of the color of the light source. As described above, in an image shot using a colored light source, the color tone of the entire image is shifted to the color tone side of the light source. In order to accurately correct such a color shift, it is not always easy because it is necessary to know what color light source was used for photographing. However, since a person's teeth are usually close to white, it can be considered that the color of the tooth portion is almost the color of the light source. Therefore, if the entire image is corrected so that the image data representing the tooth portion (representative image data) has a pure white color, the influence of the light source can be corrected and the image can be corrected to the correct color. As a result, a higher quality image can be printed.

(2)第2の変形例 :
上述した各種の歯色補正処理は何れも、歯の色は真っ白に補正するものとして説明した。しかし、目標の歯の色を複数設定しておき、これらの中から、より好ましい歯の色を選択可能としても良い。
(2) Second modification:
In the various tooth color correction processes described above, the tooth color is corrected to be completely white. However, a plurality of target tooth colors may be set, and a more preferable tooth color may be selected from these.

図15は、目標の歯の色が複数設定されている様子を概念的に示した説明図である。図示されているように、歯の色毎に、R、G、Bの各成分の目標値が設定されており、希望の色を選択すると、それに応じて、各成分についての変換特性が生成されるようにしても良い。   FIG. 15 is an explanatory diagram conceptually showing a state in which a plurality of target tooth colors are set. As shown in the figure, target values of R, G, and B components are set for each tooth color, and when a desired color is selected, conversion characteristics for each component are generated accordingly. You may make it.

図16は、選択した歯の色に応じて変換特性を生成する様子を概念的に示した説明図である。今、検出した歯の部分から得られた代表画像データのR成分が、平均値AvRであったとする。また、選択した歯の色のR成分が、階調値TR であったものとする。すると、図16に示すようなO点、P点、Q点を考えて、これらを直線で結ぶことにより、R成分についての変換特性を生成することができる。このような変換特性に従って、歯の部分の画像データを補正してやれば、歯の部分が、ほぼ選択した目標の色となるように補正することができる。また、こうして画像データを補正してやれば、歯の部分の画像に含まれる明暗を引き継いだ状態で(すなわち、周囲より明るい部分は明るいまま、周囲より暗い部分は暗いまま)補正されるので、自然な画像を印刷することができる。   FIG. 16 is an explanatory diagram conceptually showing how the conversion characteristics are generated according to the color of the selected tooth. Assume that the R component of the representative image data obtained from the detected tooth portion is the average value AvR. Further, it is assumed that the R component of the selected tooth color is the gradation value TR. Then, considering the O point, the P point, and the Q point as shown in FIG. 16, the conversion characteristics for the R component can be generated by connecting these with a straight line. If the image data of the tooth portion is corrected according to such conversion characteristics, the tooth portion can be corrected so as to have a substantially selected target color. Further, if the image data is corrected in this way, the correction is performed in a state in which the light and darkness included in the image of the tooth portion is inherited (that is, the portion brighter than the surrounding remains bright and the portion darker than the surrounding remains dark). Images can be printed.

もちろん、このように、歯の部分の色を真っ白以外の色に補正する場合でも、歯の部分を基準として、画像全体の色調を補正することとしても良い。すなわち、歯の部分については、選択した歯の色に補正されるような変換特性(図16に示すような特性)に従って補正し、歯以外の部分については、歯の部分が真っ白に補正されるような変換特性(図13に示すような特性)に従って補正することとしても良い。こうすれば、歯の部分は、選択した色に補正しつつ、画像全体の色調を正しく修正して、より高画質な画像を印刷することが可能となる。   Of course, even when the color of the tooth portion is corrected to a color other than pure white as described above, the color tone of the entire image may be corrected using the tooth portion as a reference. That is, the tooth portion is corrected according to the conversion characteristic (characteristic as shown in FIG. 16) that is corrected to the selected tooth color, and the tooth portion is corrected to be white for the portions other than the tooth. Corrections may be made according to such conversion characteristics (characteristics as shown in FIG. 13). In this way, it is possible to correct the color tone of the entire image while correcting the tooth portion to the selected color and print a higher quality image.

以上、本実施例の印刷装置について説明したが、本発明は上記すべての実施例に限られるものではなく、その要旨を逸脱しない範囲において種々の態様で実施することができる。   Although the printing apparatus of the present embodiment has been described above, the present invention is not limited to all the above-described embodiments, and can be implemented in various modes without departing from the scope of the present invention.

本実施例の印刷装置の概要を示した説明図である。It is explanatory drawing which showed the outline | summary of the printing apparatus of a present Example. 本実施例の印刷装置の外観形状を示す斜視図である。It is a perspective view which shows the external appearance shape of the printing apparatus of a present Example. 原稿画像を読み込むために印刷装置の上部に設けられた原稿台カバーを開いた様子を示す説明図である。FIG. 6 is an explanatory diagram showing a state in which a document table cover provided on the upper part of the printing apparatus is opened to read a document image. スキャナ部の手前側を持ち上げて回転させた様子を示した斜視図である。It is the perspective view which showed a mode that the front side of the scanner part was lifted and rotated. 本実施例の印刷装置の内部構成を概念的に示した説明図である。It is explanatory drawing which showed notionally the internal structure of the printing apparatus of a present Example. 各色のインク吐出ヘッドにインク滴を吐出する複数のノズルが形成されている様子を示した説明図である。It is explanatory drawing which showed a mode that the several nozzle which discharges an ink drop to the ink discharge head of each color was formed. 本実施例の印刷装置で画像を印刷するために行われている画像印刷処理の流れを示すフローチャートである。3 is a flowchart illustrating a flow of image printing processing performed to print an image with the printing apparatus according to the present exemplary embodiment. 色変換処理のために参照される色変換テーブルを概念的に示した説明図である。It is explanatory drawing which showed notionally the color conversion table referred for a color conversion process. ディザマトリックスの一部を拡大して例示した説明図である。It is explanatory drawing which expanded and illustrated a part of dither matrix. ディザマトリックスを参照しながら画素毎にドット形成の有無を判断している様子を概念的に示した説明図である。It is explanatory drawing which showed notionally the mode that the presence or absence of dot formation was judged for every pixel, referring a dither matrix. 本実施例の画像印刷処理中で行われる歯色補正処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the tooth color correction process performed in the image printing process of a present Example. 画像中で人物の歯が写っている部分を検出した様子を示す説明図である。It is explanatory drawing which shows a mode that the part which has a person's tooth | gear reflected in the image was detected. 代表画像データに基づいて、変換特性を生成している様子を概念的に示した説明図である。It is explanatory drawing which showed notionally the mode that the conversion characteristic is produced | generated based on representative image data. 第1の変形例の歯色補正処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the tooth color correction process of a 1st modification. 目標の歯の色が複数設定されている様子を概念的に示した説明図である。It is explanatory drawing which showed notionally the mode that the color of the target tooth | gear was set in multiple numbers. 選択した歯の色に応じて変換特性を生成する様子を概念的に示した説明図である。It is explanatory drawing which showed notionally the mode that a conversion characteristic is produced | generated according to the color of the selected tooth | gear.

符号の説明Explanation of symbols

10…印刷装置、 12…インク吐出ヘッド、 100…スキャナ部、
200…プリンタ部、 240…印刷キャリッジ、 241…印字ヘッド、
242…インクカートリッジ、 243…インクカートリッジ、
260…制御回路、 300…操作パネル
DESCRIPTION OF SYMBOLS 10 ... Printing apparatus, 12 ... Ink discharge head, 100 ... Scanner part,
200: Printer unit, 240: Print carriage, 241: Print head,
242 ... Ink cartridge, 243 ... Ink cartridge,
260 ... control circuit, 300 ... operation panel

Claims (13)

少なくとも人物を含んで撮影された画像の画像データを受け取って、該画像を印刷する印刷装置であって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する歯部分検出手段と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する代表画像データ生成手段と、
前記代表画像データが、予め設定しておいた目標データと一致するように、前記歯の部分の画像データを補正する画像データ補正手段と、
前記補正された画像データに基づいて前記画像を印刷する画像印刷手段と
を備える印刷装置。
A printing apparatus that receives image data of an image taken including at least a person and prints the image,
A tooth part detecting means for detecting a part of a person's teeth in the image data by analyzing the image data;
Representative image data generating means for generating representative image data as image data representing the detected tooth by calculating an average value of the image data in the detected tooth portion;
Image data correction means for correcting the image data of the tooth portion so that the representative image data matches target data set in advance;
An image printing unit that prints the image based on the corrected image data.
請求項1に記載の印刷装置であって、
前記画像データ補正手段は、
複数の前記目標データを記憶しておく目標データ記憶手段と、
前記記憶されている複数の目標データの中から1の目標データを選択する目標データ選択手段と
を備え、
前記代表画像データが、前記選択した目標データと一致するように、前記画像データを補正する手段である印刷装置。
The printing apparatus according to claim 1,
The image data correcting means includes
Target data storage means for storing a plurality of target data;
A target data selecting means for selecting one target data from the plurality of stored target data,
A printing apparatus, which is means for correcting the image data so that the representative image data matches the selected target data.
少なくとも人物を含んで撮影された画像の画像データを受け取って、該画像を印刷する印刷装置であって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する歯部分検出手段と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する代表画像データ生成手段と、
前記代表画像データが、予め設定しておいた基準の白色の画像データと一致するように、前記画像データの色調を補正する色調補正手段と、
前記色調が補正された画像データに基づいて前記画像を印刷する画像印刷手段と
を備える印刷装置。
A printing apparatus that receives image data of an image taken including at least a person and prints the image,
A tooth part detecting means for detecting a part of a person's teeth in the image data by analyzing the image data;
Representative image data generating means for generating representative image data as image data representing the detected tooth by calculating an average value of the image data in the detected tooth portion;
Color tone correction means for correcting the color tone of the image data so that the representative image data matches the preset reference white image data;
A printing apparatus comprising: an image printing unit that prints the image based on the image data in which the color tone is corrected.
少なくとも人物を含んで撮影された画像の画像データを受け取って、所定の画像処理を行う画像処理装置であって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する歯部分検出手段と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する代表画像データ生成手段と、
前記代表画像データが、予め設定しておいた目標データと一致するように、前記歯の部分の画像データを補正する画像データ補正手段と
を備える画像処理装置。
An image processing apparatus that receives image data of an image captured including at least a person and performs predetermined image processing,
A tooth part detecting means for detecting a part of a person's teeth in the image data by analyzing the image data;
Representative image data generating means for generating representative image data as image data representing the detected tooth by calculating an average value of the image data in the detected tooth portion;
An image processing apparatus comprising: image data correcting means for correcting image data of the tooth portion so that the representative image data matches preset target data.
少なくとも人物を含んで撮影された画像の画像データを受け取って、所定の画像処理を行う画像処理装置であって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する歯部分検出手段と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する代表画像データ生成手段と、
前記代表画像データが、予め設定しておいた基準の白色の画像データと一致するように、前記画像データの色調を補正する色調補正手段と
を備える画像処理装置。
An image processing apparatus that receives image data of an image captured including at least a person and performs predetermined image processing,
A tooth part detecting means for detecting a part of a person's teeth in the image data by analyzing the image data;
Representative image data generating means for generating representative image data as image data representing the detected tooth by calculating an average value of the image data in the detected tooth portion;
An image processing apparatus comprising: a color tone correction unit that corrects a color tone of the image data so that the representative image data matches a preset reference white image data.
少なくとも人物を含んで撮影された画像の画像データを受け取って、該画像を印刷する印刷方法であって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する第1の工程と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する第2の工程と、
前記代表画像データが、予め設定しておいた目標データと一致するように、前記歯の部分の画像データを補正する第3の工程と、
前記補正された画像データに基づいて前記画像を印刷する第4の工程と
を備える印刷方法。
A printing method for receiving image data of an image taken including at least a person and printing the image,
A first step of detecting a portion of the image data in which a person's teeth are reflected by analyzing the image data;
A second step of generating representative image data which is image data representing the detected tooth by calculating an average value of the image data in the detected tooth portion;
A third step of correcting the image data of the tooth portion so that the representative image data matches the preset target data;
And a fourth step of printing the image based on the corrected image data.
少なくとも人物を含んで撮影された画像の画像データを受け取って、該画像を印刷する印刷方法であって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する工程(A)と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する工程(B)と、
前記代表画像データが、予め設定しておいた基準の白色の画像データと一致するように、前記画像データの色調を補正する工程(C)と、
前記色調が補正された画像データに基づいて前記画像を印刷する工程(D)と
を備える印刷方法。
A printing method for receiving image data of an image taken including at least a person and printing the image,
Analyzing the image data to detect a portion of the image data in which a person's teeth are reflected (A);
(B) generating representative image data as image data representing the detected tooth by calculating an average value of the image data in the detected tooth portion;
A step (C) of correcting the color tone of the image data so that the representative image data matches the reference white image data set in advance;
And a step (D) of printing the image based on the image data with the color tone corrected.
少なくとも人物を含んで撮影された画像の画像データを受け取って、所定の画像処理を行う画像処理方法であって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する工程(1)と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する工程(2)と、
前記代表画像データが、予め設定しておいた目標データと一致するように、前記歯の部分の画像データを補正する工程(3)と
を備える画像処理方法。
An image processing method for receiving image data of an image captured including at least a person and performing predetermined image processing,
Analyzing the image data to detect a portion of the image data in which a person's teeth are reflected (1);
A step (2) of generating representative image data as image data representing the detected tooth by calculating an average value of the image data in the detected tooth portion;
And a step (3) of correcting the image data of the tooth portion so that the representative image data matches preset target data.
少なくとも人物を含んで撮影された画像の画像データを受け取って、所定の画像処理を行う画像処理方法であって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する工程(ア)と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する工程(イ)と、
前記代表画像データが、予め設定しておいた基準の白色の画像データと一致するように、前記画像データの色調を補正する工程(ウ)と
を備える画像処理方法。
An image processing method for receiving image data of an image captured including at least a person and performing predetermined image processing,
Analyzing the image data to detect a portion of the image data where a person's teeth are reflected (a);
A step (a) of generating representative image data as image data representing the detected tooth by calculating an average value of the image data in the detected tooth portion;
And (c) correcting the color tone of the image data so that the representative image data matches preset reference white image data.
少なくとも人物を含んで撮影された画像の画像データを受け取って、該画像を印刷する方法を、コンピュータを用いて実現するためのプログラムであって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する第1の機能と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する第2の機能と、
前記代表画像データが、予め設定しておいた目標データと一致するように、前記歯の部分の画像データを補正する第3の機能と、
前記補正された画像データに基づいて前記画像を印刷する第4の機能と
をコンピュータにより実現するプログラム。
A program for realizing, using a computer, a method for receiving image data of an image photographed including at least a person and printing the image,
A first function for detecting a portion of the image data in which a person's teeth are reflected by analyzing the image data;
A second function of generating representative image data, which is image data representing the detected tooth, by calculating an average value of the image data in the detected tooth portion;
A third function for correcting the image data of the tooth portion so that the representative image data matches target data set in advance;
A program for realizing, by a computer, a fourth function for printing the image based on the corrected image data.
少なくとも人物を含んで撮影された画像の画像データを受け取って、該画像を印刷する方法を、コンピュータを用いて実現するためのプログラムであって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する機能(A)と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する機能(B)と、
前記代表画像データが、予め設定しておいた基準の白色の画像データと一致するように、前記画像データの色調を補正する機能(C)と、
前記色調が補正された画像データに基づいて前記画像を印刷する機能(D)と
をコンピュータにより実現するプログラム。
A program for realizing, using a computer, a method for receiving image data of an image photographed including at least a person and printing the image,
A function (A) for detecting a portion in which human teeth are reflected in the image data by analyzing the image data;
A function (B) for generating representative image data as image data representing the detected tooth by calculating an average value of the image data in the detected tooth portion;
A function (C) for correcting the color tone of the image data so that the representative image data matches a preset reference white image data;
A program for realizing, by a computer, a function (D) for printing the image based on the image data whose color tone has been corrected.
少なくとも人物を含んで撮影された画像の画像データを受け取って、所定の画像処理を行う方法を、コンピュータを用いて実現するためのプログラムであって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する機能(1)と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する機能(2)と、
前記代表画像データが、予め設定しておいた目標データと一致するように、前記歯の部分の画像データを補正する機能(3)と
をコンピュータにより実現するプログラム。
A program for realizing, using a computer, a method for receiving image data of an image captured including at least a person and performing predetermined image processing,
A function (1) for detecting a portion in which human teeth are reflected in the image data by analyzing the image data;
A function (2) for generating representative image data as image data representing the detected tooth by calculating an average value of the image data in the detected tooth portion;
A program for realizing, by a computer, a function (3) for correcting the image data of the tooth portion so that the representative image data matches preset target data.
少なくとも人物を含んで撮影された画像の画像データを受け取って、所定の画像処理を行う方法を、コンピュータを用いて実現するためのプログラムであって、
前記画像データを解析することにより、該画像データ中で人物の歯が写っている部分を検出する機能(ア)と、
前記検出した歯の部分での画像データの平均値を算出することにより、該検出した歯を代表する画像データたる代表画像データを生成する機能(イ)と、
前記代表画像データが、予め設定しておいた基準の白色の画像データと一致するように、前記画像データの色調を補正する機能(ウ)と
をコンピュータにより実現するプログラム。
A program for realizing, using a computer, a method for receiving image data of an image captured including at least a person and performing predetermined image processing,
By analyzing the image data, a function (a) for detecting a portion in which human teeth are reflected in the image data;
A function (a) for generating representative image data, which is image data representing the detected tooth, by calculating an average value of the image data in the detected tooth portion;
A program for realizing, by a computer, a function (c) for correcting the color tone of the image data so that the representative image data matches a preset reference white image data.
JP2006047892A 2006-02-24 2006-02-24 Printer, image processor, printing method, and image processing method Withdrawn JP2007223189A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006047892A JP2007223189A (en) 2006-02-24 2006-02-24 Printer, image processor, printing method, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006047892A JP2007223189A (en) 2006-02-24 2006-02-24 Printer, image processor, printing method, and image processing method

Publications (1)

Publication Number Publication Date
JP2007223189A true JP2007223189A (en) 2007-09-06

Family

ID=38545437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006047892A Withdrawn JP2007223189A (en) 2006-02-24 2006-02-24 Printer, image processor, printing method, and image processing method

Country Status (1)

Country Link
JP (1) JP2007223189A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009231879A (en) * 2008-03-19 2009-10-08 Seiko Epson Corp Image processing unit and image processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009231879A (en) * 2008-03-19 2009-10-08 Seiko Epson Corp Image processing unit and image processing method

Similar Documents

Publication Publication Date Title
JP2008172662A (en) Device and method for converting image data
JP2007219815A (en) Printer, image processor, printing method and image processing method
JP4407842B2 (en) Print control apparatus and print control method
US20070273908A1 (en) Image processing apparatus, printing apparatus, image processing method, color correction table setting method, and printing method.
JP2007193729A (en) Printer, image processor, printing method and image processing method
JP2007190741A (en) Printer, image processor, method for printing, and method for processing image
JP2008148007A (en) Image processor, printer, image processing method and printing method
JP2007083547A (en) Printer, image processor, method for printing, and method for processing image
JP4710770B2 (en) Image processing apparatus, image processing method, and program
JP2007215074A (en) Image data analysis apparatus, image data generating apparatus, image data analysis method, and image data generating method
JP2007193730A (en) Printer, image processor, printing method and image processing method
JP2007190885A (en) Printing device, image processor, printing method and image processing method
JP4752431B2 (en) Color image copying apparatus, color image copying method, and computer program
JP2007062308A (en) Image copying device, image processor, image copying method, and image processing method
JP2007223189A (en) Printer, image processor, printing method, and image processing method
JP2008044295A (en) Printer, image processor, image copying method, and image processing method
JP2007098745A (en) Printer, image processor, printing method, and image processing method
JP2007038603A (en) Printer, image processor, method for printing and method for processing image
JP2007241495A (en) Printer, image processor, printing method, and image processing method
JP2007228331A (en) Printer, image processor, printing method and image processing method
JP2007281914A (en) Image copying apparatus, image data conversion device, image copying method, and image data conversion method
JP2007006311A (en) Image copying apparatus and method, and printer and printing method
JP2008109432A (en) Image processing apparatus, printer, image processing method and printing method
JP4605061B2 (en) Color conversion table setting method, image data conversion device, printing device, image data conversion method, and printing method
JP2008054164A (en) Image processor, printer, image processing method and printing method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090512