JP4556602B2 - Image processing apparatus, printer including the same, image processing method, and image processing program - Google Patents

Image processing apparatus, printer including the same, image processing method, and image processing program Download PDF

Info

Publication number
JP4556602B2
JP4556602B2 JP2004291517A JP2004291517A JP4556602B2 JP 4556602 B2 JP4556602 B2 JP 4556602B2 JP 2004291517 A JP2004291517 A JP 2004291517A JP 2004291517 A JP2004291517 A JP 2004291517A JP 4556602 B2 JP4556602 B2 JP 4556602B2
Authority
JP
Japan
Prior art keywords
image
person
predetermined
rotated
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004291517A
Other languages
Japanese (ja)
Other versions
JP2006107037A (en
Inventor
正年 松平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2004291517A priority Critical patent/JP4556602B2/en
Publication of JP2006107037A publication Critical patent/JP2006107037A/en
Application granted granted Critical
Publication of JP4556602B2 publication Critical patent/JP4556602B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置およびこれを備えるプリンタ、画像処理方法、画像処理用プログラムに関し、詳しくは、画像に所定の画像補正処理を施して出力する画像処理装置およびこれを備えるプリンタ、画像処理方法、画像処理用プログラムに関する。   The present invention relates to an image processing apparatus, a printer including the same, an image processing method, and an image processing program. More specifically, the present invention relates to an image processing apparatus that performs predetermined image correction processing on an image and outputs the image, and a printer including the image processing apparatus. The present invention relates to an image processing program.

従来、この種の画像処理装置としては、入力された画像の中に人物の顔などのオブジェクトが含まれるかどうかを検出し、この検出結果に基づいて画像内容(人物画像や風景画像など)を判定すると共に補正パラメータを設定して画像を補正するものが提案されている(例えば、特許文献1参照)。この装置では、人物の顔を検出する際には、肌色の領域を検出したり目や口に相当する画素を検出したりしている。
特開2004−236110号公報
Conventionally, this type of image processing apparatus detects whether or not an input image includes an object such as a human face, and based on the detection result, the image content (such as a person image or a landscape image) is detected. There has been proposed one that corrects an image by determining and setting a correction parameter (see, for example, Patent Document 1). In this apparatus, when detecting the face of a person, a skin color region is detected or pixels corresponding to eyes and mouth are detected.
Japanese Patent Laid-Open No. 2004-236110

しかしながら、上述の装置では、人物の顔などのオブジェクトを検出する際には、目や口に相当する画素の位置関係や画像全体に対するオブジェクトの配置などを考慮して行なうから、画像の向きによってはオブジェクトの検出や画像内容の判定を正しく行なえない場合がある。   However, in the above-described apparatus, when detecting an object such as a human face, the positional relationship of pixels corresponding to eyes and mouth and the arrangement of the object with respect to the entire image are taken into consideration. In some cases, object detection and image content determination cannot be performed correctly.

本発明の画像処理装置およびこれを備えるプリンタ、画像処理方法、画像処理用プログラムは、オブジェクトの検出や画像内容の判定をより確実に行なうことを目的の一つとする。また、本発明の画像処理装置およびこれを備えるプリンタ、画像処理方法、画像処理用プログラムは、画像内容に応じた画像補正処理をより適切に施すことを目的の一つとする。   An object of the image processing apparatus, the printer including the image processing apparatus, the image processing method, and the image processing program according to the present invention is to more reliably perform object detection and image content determination. Another object of the image processing apparatus, the printer including the image processing apparatus, the image processing method, and the image processing program according to the present invention is to more appropriately perform image correction processing according to the image content.

本発明の画像処理装置およびこれを備えるプリンタ、画像処理方法、画像処理用プログラムは、上述の目的の少なくとも一部を達成するために以下の手段を採った。   The image processing apparatus, the printer including the same, the image processing method, and the image processing program of the present invention employ the following means in order to achieve at least a part of the above object.

本発明の画像処理装置は、
画像に所定の画像補正処理を施して出力する画像処理装置であって、
指定された画像に所定の画像補正処理を施す指示がなされたときに、該画像の画素情報に基づいて該画像に含まれるオブジェクト領域を抽出し、該指定された画像を0度を含む複数の回転角度で回転させた各回転画像における該抽出したオブジェクト領域の配置に基づいて画像内容を判定する画像内容判定手段と、
該判定された画像内容に基づいて前記指定された画像に所定の画像補正処理を施して出力する画像処理手段と、
を備えることを要旨とする。
The image processing apparatus of the present invention
An image processing apparatus that performs predetermined image correction processing on an image and outputs the image,
When an instruction to perform a predetermined image correction process is given to the designated image, an object region included in the image is extracted based on the pixel information of the image, and the designated image includes a plurality of degrees including 0 degrees. Image content determination means for determining the image content based on the arrangement of the extracted object region in each rotated image rotated at a rotation angle;
Image processing means for performing predetermined image correction processing on the designated image based on the determined image content, and outputting the processed image;
It is a summary to provide.

この本発明の画像処理装置では、画像の画素情報に基づいてオブジェクト領域を抽出し、画像を複数の回転角度で回転させた各回転画像におけるオブジェクト領域の配置に基づいて画像内容を判定し、この判定した画像内容に基づいて画像補正処理を施して出力する。したがって、画像を複数の回転角度で回転してオブジェクト領域の配置に基づく画像内容の判定を行なうから、より確実に画像内容の判定を行なうことができる。この結果、画像内容に基づく画像補正処理をより適切に施すことができる。ここで複数の回転角度としては、例えば、「0度,90度,180度,270度」などを挙げることができる。   In the image processing apparatus of the present invention, an object region is extracted based on the pixel information of the image, and the image content is determined based on the arrangement of the object region in each rotated image obtained by rotating the image at a plurality of rotation angles. Based on the determined image content, an image correction process is performed and output. Therefore, since the image content is determined based on the arrangement of the object areas by rotating the image at a plurality of rotation angles, the image content can be determined more reliably. As a result, the image correction process based on the image content can be performed more appropriately. Here, examples of the plurality of rotation angles include “0 degree, 90 degrees, 180 degrees, and 270 degrees”.

こうした本発明の画像処理装置において、前記画像内容判定手段は、人物の顔と予測される人物予測領域を前記オブジェクト領域の一つとして抽出し、前記各回転画像における該抽出した人物予測領域の配置に基づいて画像内容を人物画像であると判定する手段であるものとすることもできる。こうすれば、人物画像の判定をより確実に行なうことができる。この場合、前記画像内容判定手段は、所定の肌色の画素により構成される肌色領域を前記人物予測領域として抽出する手段であるものとすることもできる。   In such an image processing apparatus of the present invention, the image content determination means extracts a person prediction area predicted to be a human face as one of the object areas, and arranges the extracted person prediction area in each rotated image. It is also possible to determine that the image content is a person image based on the above. In this way, the person image can be determined more reliably. In this case, the image content determination unit may be a unit that extracts a skin color region constituted by pixels of a predetermined skin color as the person prediction region.

この態様の本発明の画像処理装置において、前記画像内容判定手段は、前記各回転画像のいずれかの画像における前記人物予測領域の配置が所定条件を満たすときに画像内容を人物画像であると判定する手段であるものとすることもできる。この場合、前記画像内容判定手段は前記人物予測領域の前記各回転画像の上辺および左右辺に接する量が所定量以下であることを前記所定条件の一つとして用いて画像内容を人物画像であると判定する手段であるものとしたり、前記各回転画像における前記人物予測領域内に人物の両目に相当する横方向に並ぶ領域と該領域より下方向に位置する人物の口に相当する領域とが存在することを前記所定条件の一つとして用いて画像内容を人物画像であると判定する手段であるものとしたりすることもできる。ここで「所定量」には値0が含まれる。即ち、人物予測領域が画像の上辺および左右辺に接しないことを所定条件の一つとして用いて画像内容を人物画像であると判定するものも含まれる。   In this aspect of the image processing apparatus of the present invention, the image content determination means determines that the image content is a person image when the arrangement of the person prediction area in any of the rotated images satisfies a predetermined condition. It can also be a means to do. In this case, the image content determination means is a person image by using, as one of the predetermined conditions, that the amount of the person prediction area contacting the upper side and the left and right sides of each rotated image is equal to or less than a predetermined amount. Or a region aligned in the horizontal direction corresponding to both eyes of the person and a region corresponding to the mouth of the person located below the region in the person prediction region in each rotated image. It may be a means for determining that the image content is a person image by using existence as one of the predetermined conditions. Here, the “predetermined amount” includes the value 0. In other words, it includes one that determines that the content of the image is a person image using one of the predetermined conditions that the person prediction area does not touch the upper side and the left and right sides of the image.

また、本発明の画像処理装置において、前記画像内容判定手段は、画像内容が人物画像であると判定されないときには画像内容を風景画像であると判定する手段であるものとすることもできる。   In the image processing apparatus of the present invention, the image content determination means may be means for determining that the image content is a landscape image when the image content is not determined to be a person image.

さらに、本発明の画像処理装置において、前記画像内容判定手段は、所定の空色の画素により構成される空色領域を前記オブジェクト領域の一つとして抽出し、前記各回転画像のいずれかの画像における該空色領域が該画像の下辺に接していないことを条件の一つとして画像内容を該空色領域を空とする風景画像であると判定する手段であるものとすることもできる。こうすれば、空を有する風景画像の判定をより確実に行なうことができる。   Furthermore, in the image processing apparatus of the present invention, the image content determination unit extracts a sky blue area constituted by a predetermined sky blue pixel as one of the object areas, and One of the conditions is that the sky blue area is not in contact with the lower side of the image, and the image content may be determined as a landscape image with the sky blue area as the sky. In this way, it is possible to more reliably determine a landscape image having the sky.

こうした本発明の画像処理装置において、前記画像内容判定手段は、前記指定された画像が撮影時の回転角度を示す撮影回転情報を伴う場合には、該撮影回転情報が示す回転角度で回転した画像を優先して用いて画像内容を判定する手段であるものとすることもできる。こうすれば、撮影時の回転角度で回転した画像を優先して用いることになるから、画像内容の判定をより迅速に行なうことができる。この場合、前記画像内容判定手段は、前記各回転画像を用いて人物画像に関する画像内容を判定し、前記撮影回転情報が示す回転角度で回転した画像を用いて風景画像に関する画像内容を判定する手段であるものとすることもできる。こうすれば、風景画像に関する判定は撮影時の回転角度で回転した画像を用いて行なうから、より効率的に画像内容の判定を行なうことができる。ここで、人物画像に関する画像内容の判定を各回転画像を用いて行なうのは、人物画像の場合には、人物が寝転がったり逆立ちしたりした状態で撮影される場合が想定されるから、撮影時の回転角度で回転した画像のみを用いても確実な画像内容の判定を行なうことができないと考えられることに基づく。   In such an image processing apparatus of the present invention, when the designated image is accompanied by shooting rotation information indicating a rotation angle at the time of shooting, the image content determining means rotates an image rotated at the rotation angle indicated by the shooting rotation information. Can be used as a means for preferentially using the image to determine the image content. In this way, since the image rotated at the rotation angle at the time of shooting is preferentially used, the image content can be determined more quickly. In this case, the image content determination unit determines the image content related to the person image using the rotated images, and determines the image content related to the landscape image using the image rotated at the rotation angle indicated by the shooting rotation information. It can also be assumed. In this way, since the determination regarding the landscape image is performed using the image rotated at the rotation angle at the time of shooting, the image content can be determined more efficiently. Here, the determination of the image content related to the person image is performed using each rotated image. In the case of a person image, it is assumed that the person is photographed in a lying state or standing upside down. This is based on the fact that it is considered that the determination of the image content cannot be performed reliably even if only the image rotated at the rotation angle is used.

また、本発明の画像処理装置において、前記画像処理手段は、画像内容が人物画像であると判定されたときには前記所定の画像補正処理として肌色を補正する肌色補正処理,ソフトフォーカス処理,明度補正処理のうち少なくとも一つを施す手段であるものとしたり、画像内容が風景画像であると判定されたときには前記所定の画像補正処理として空色を補正する空色補正処理,新緑色を補正する新緑色補正処理,彩度補正処理の少なくとも一つを施す手段であるものとすることもできる。   Further, in the image processing apparatus of the present invention, the image processing means, when it is determined that the image content is a person image, as a predetermined image correction process, a skin color correction process for correcting a skin color, a soft focus process, a lightness correction process Of the image, or when it is determined that the image content is a landscape image, a sky blue correction process for correcting a sky color and a new green color correction process for correcting a new green color as the predetermined image correction process. , And means for performing at least one of the saturation correction processing.

本発明のプリンタは、上述したいずれかの態様の本発明の画像処理装置と、該画像処理装置から出力される画像を印刷する印刷実行手段と、を備えることを要旨とする。   The gist of the printer of the present invention is that it includes any one of the above-described image processing apparatuses of the present invention and a print execution unit that prints an image output from the image processing apparatus.

この本発明のプリンタでは、上述したいずれかの態様の本発明の画像処理装置を備えるから、本発明の画像処理装置が奏する効果、例えば、より確実に画像内容の判定を行なうことができる効果や画像内容に基づく画像補正処理をより適切に施すことができる効果などを奏することができる。   Since the printer of the present invention includes the image processing apparatus of the present invention according to any one of the above-described aspects, the effect of the image processing apparatus of the present invention, for example, the effect that the image content can be more reliably determined, An effect that image correction processing based on image contents can be more appropriately performed can be achieved.

本発明の画像処理方法は、
画像に所定の画像補正処理を施して出力する画像処理方法であって、
(a)指定された画像に所定の画像補正処理を施す指示がなされたときに、該画像の画素情報に基づいて該画像に含まれるオブジェクト領域を抽出し、該指定された画像を0度を含む複数の回転角度で回転させた各回転画像における該抽出したオブジェクト領域の配置に基づいて画像内容を判定し、
(b)該判定された画像内容に基づいて前記指定された画像に所定の画像補正処理を施して出力する、
ことを要旨とする。
The image processing method of the present invention includes:
An image processing method for performing a predetermined image correction process on an image and outputting the image,
(A) When an instruction to perform a predetermined image correction process is given to a specified image, an object area included in the image is extracted based on pixel information of the image, and the specified image is set to 0 degrees. Determining the image content based on the arrangement of the extracted object regions in each rotated image rotated at a plurality of rotation angles including,
(B) A predetermined image correction process is performed on the designated image based on the determined image content and output.
This is the gist.

この本発明の画像処理方法では、画像の画素情報に基づいてオブジェクト領域を抽出し、画像を複数の回転角度で回転させた各回転画像におけるオブジェクト領域の配置に基づいて画像内容を判定し、この判定した画像内容に基づいて画像補正処理を施して出力する。したがって、画像を複数の回転角度で回転してオブジェクト領域の配置に基づく画像内容の判定を行なうから、より確実に画像内容の判定を行なうことができる。この結果、画像内容に基づく画像補正処理をより適切に施すことができる。ここで複数の回転角度としては、例えば、「0度,90度,180度,270度」などを挙げることができる。   In the image processing method of the present invention, an object region is extracted based on pixel information of an image, the image content is determined based on the arrangement of the object region in each rotated image obtained by rotating the image at a plurality of rotation angles, Based on the determined image content, an image correction process is performed and output. Therefore, since the image content is determined based on the arrangement of the object areas by rotating the image at a plurality of rotation angles, the image content can be determined more reliably. As a result, the image correction process based on the image content can be performed more appropriately. Here, examples of the plurality of rotation angles include “0 degree, 90 degrees, 180 degrees, and 270 degrees”.

本発明の画像処理用プログラムは、
画像に所定の画像補正処理を施して出力する画像処理用プログラムであって、
指定された画像に所定の画像補正処理を施す指示がなされたときに、該画像の画素情報に基づいて該画像に含まれるオブジェクト領域を抽出し、該指定された画像を0度を含む複数の回転角度で回転させた各回転画像における該抽出したオブジェクト領域の配置に基づいて画像内容を判定する画像内容判定モジュールと、
該判定された画像内容に基づいて前記指定された画像に所定の画像補正処理を施して出力する画像処理モジュールと、
を備えることを要旨とする。
The image processing program of the present invention includes:
An image processing program for performing predetermined image correction processing on an image and outputting the image,
When an instruction to perform a predetermined image correction process is given to the designated image, an object region included in the image is extracted based on the pixel information of the image, and the designated image includes a plurality of degrees including 0 degrees. An image content determination module that determines the image content based on the arrangement of the extracted object regions in each rotated image rotated at a rotation angle;
An image processing module that performs predetermined image correction processing on the specified image based on the determined image content, and outputs the image processing module;
It is a summary to provide.

この本発明の画像処理用プログラムでは、画像の画素情報に基づいてオブジェクト領域を抽出し、画像を複数の回転角度で回転させた各回転画像におけるオブジェクト領域の配置に基づいて画像内容を判定し、この判定した画像内容に基づいて画像補正処理を施して出力する。したがって、画像を複数の回転角度で回転してオブジェクト領域の配置に基づく画像内容の判定を行なうから、より確実に画像内容の判定を行なうことができる。この結果、画像内容に基づく画像補正処理をより適切に施すことができる。ここで複数の回転角度としては、例えば、「0度,90度,180度,270度」などを挙げることができる。   In the image processing program of the present invention, an object area is extracted based on pixel information of an image, and the image content is determined based on the arrangement of the object area in each rotated image obtained by rotating the image at a plurality of rotation angles. Based on the determined image content, an image correction process is performed and output. Therefore, since the image content is determined based on the arrangement of the object areas by rotating the image at a plurality of rotation angles, the image content can be determined more reliably. As a result, the image correction process based on the image content can be performed more appropriately. Here, examples of the plurality of rotation angles include “0 degree, 90 degrees, 180 degrees, and 270 degrees”.

次に、本発明を実施するための最良の形態を実施例を用いて説明する。   Next, the best mode for carrying out the present invention will be described using examples.

図1は、本発明の一実施例としての画像処理装置を搭載したプリンタ20の構成の概略を示す構成図である。実施例のプリンタ20は、図示するように、装置全体を制御する制御部21と、メモリカードなどの記憶媒体30やデジタルスチルカメラ31,パーソナルコンピュータ32などとの接続を司るインタフェース部22と、記憶媒体30などから読み込んだ画像ファイルに対して各種の画像処理を施す画像処理部23と、データを一時的に記憶するデータバッファ24と、読み込んだ画像ファイルに色変換処理や二値化処理などを施して印刷データを生成する印刷データ生成部25と、生成された印刷データを蓄積するイメージバッファ26と、イメージバッファ26に蓄積された印刷データに基づいて印刷を実行するプリンタエンジン27とを備え、各色のインクを用紙に噴射して印刷を行なうインクジェットプリンタとして構成されている。画像処理部23では、記憶媒体30などに記憶されJPEG方式などで圧縮された画像ファイルを復元する処理なども行なわれる。JPEG方式の画像ファイルは、ブロック分割や離散コサイン変換(以下、DCTと略す)演算,量子化処理,ハフマン符号化などの工程を経て圧縮されている。こうしたJPEG方式の画像ファイルは一般的な画像ファイルであり、本発明の中核をなさないから、これ以上の詳細な説明は省略する。   FIG. 1 is a configuration diagram showing an outline of the configuration of a printer 20 equipped with an image processing apparatus as an embodiment of the present invention. As shown in the figure, the printer 20 of the embodiment includes a control unit 21 that controls the entire apparatus, an interface unit 22 that manages connection with a storage medium 30 such as a memory card, a digital still camera 31, a personal computer 32, and the like, and a storage unit. An image processing unit 23 that performs various types of image processing on an image file read from the medium 30 and the like, a data buffer 24 that temporarily stores data, and color conversion processing and binarization processing are performed on the read image file. A print data generation unit 25 that performs print data generation, an image buffer 26 that stores the generated print data, and a printer engine 27 that executes printing based on the print data stored in the image buffer 26. It is configured as an ink jet printer that performs printing by ejecting ink of each color onto paper.The image processing unit 23 also performs processing for restoring an image file stored in the storage medium 30 or the like and compressed by the JPEG method or the like. A JPEG image file is compressed through steps such as block division, discrete cosine transform (hereinafter abbreviated as DCT) operation, quantization processing, and Huffman coding. Such a JPEG image file is a general image file and does not form the core of the present invention.

次に、こうして構成されたプリンタ20の動作、特に、記憶媒体30などから読み込んだ画像ファイルに対して画像補正処理を施して印刷する際の動作について説明する。図2は、画像ファイルの印刷指示がなされたときに制御部21や画像処理部23,印刷データ生成部25などにより実行される画像印刷処理の一例を示すフローチャートである。画像印刷処理では、まず、図示するように、印刷指示に係る画像ファイルの1アクセス単位のデータを記憶媒体30などから読み込み(ステップS100)、読み込んだデータをハフマン解凍する処理を実行する(ステップS110)。ここで、アクセス単位とは、記憶媒体30などの仕様に応じて予め定められているデータの読込単位であり、例えば、フラッシュメモリにおけるセクタなどが該当する。また、図3に例示するように、JPEG方式で圧縮された画像ファイルの各ブロックのデータサイズはアクセス単位とは必ずしも一致せず、各ブロック間のデータサイズも異なるから、1ブロックのデータが複数のアクセス単位に跨ることがある。   Next, the operation of the printer 20 configured as described above, particularly the operation when performing image correction processing on an image file read from the storage medium 30 and printing will be described. FIG. 2 is a flowchart illustrating an example of image printing processing executed by the control unit 21, the image processing unit 23, the print data generation unit 25, and the like when an image file printing instruction is issued. In the image printing process, first, as shown in the figure, the data of one access unit of the image file related to the print instruction is read from the storage medium 30 or the like (step S100), and the process of decompressing the read data is executed (step S110). ). Here, the access unit is a data reading unit predetermined according to the specifications of the storage medium 30 and the like, and corresponds to a sector in the flash memory, for example. In addition, as illustrated in FIG. 3, the data size of each block of the image file compressed by the JPEG method does not necessarily match the access unit, and the data size between the blocks is different. Across multiple access units.

そして、1ブロック分のデータがハフマン解凍されるまでアクセス単位のデータを読み込んでハフマン解凍する処理を繰り返し実行し、1ブロック分のデータが解凍されると(ステップS120)、解凍されたデータ(ブロックの量子化DCT係数)に対して逆量子化処理を実行する(ステップS130)。逆量子化処理を実行することにより、ブロックのDCT係数が取得される。ここで、JPEG方式の画像ファイルでは、量子化DCT係数の量子化DC成分についてはブロック間の差分値がハフマン符号化されているから、ハフマン解凍により得られる量子化DC成分の差分値を累計することにより量子化DC成分が取得され、この量子化DC成分に逆量子化処理を施すことによりDC成分が取得される。   Then, the process of reading the data in the access unit and decompressing the Huffman is repeatedly executed until the data for one block is decompressed. When the data for one block is decompressed (step S120), the decompressed data (block Inverse quantization processing is performed on the (quantized DCT coefficients) (step S130). By executing the inverse quantization process, the DCT coefficients of the block are obtained. Here, in the JPEG image file, since the difference value between blocks is quantized for the quantized DC component of the quantized DCT coefficient, the difference value of the quantized DC component obtained by Huffman decompression is accumulated. As a result, a quantized DC component is acquired, and a DC component is acquired by applying an inverse quantization process to the quantized DC component.

続いて、ステップS130の逆量子化処理により取得したDCT係数に対して逆DCT演算処理を施してブロックの画素情報を取得すると共に(ステップS140)、取得した画素情報の色空間を変換する色変換処理を実行する(ステップS150)。ここで、色変換処理は、JPEG方式の画像ファイルで用いられるYCC色空間をRGB色空間に変換する処理である。   Subsequently, inverse DCT calculation processing is performed on the DCT coefficient acquired by the inverse quantization processing in step S130 to acquire pixel information of the block (step S140), and color conversion for converting the color space of the acquired pixel information Processing is executed (step S150). Here, the color conversion process is a process of converting the YCC color space used in the JPEG image file into the RGB color space.

こうしてRGB色空間に変換された画素情報が得られると、この画素情報を画像全体の画像データとしてデータバッファ24の所定領域に記憶すると共に(ステップS160)、画像全体のRGB値の分布を示すヒストグラムを累計してデータバッファ24の所定領域に記憶する(ステップS170)。なお、ヒストグラムを累計する対象とする画素は、適当なルールでサンプリングした画素としてもよい。   When the pixel information converted into the RGB color space is obtained in this way, this pixel information is stored in the predetermined area of the data buffer 24 as image data of the entire image (step S160), and a histogram indicating the distribution of RGB values of the entire image is obtained. Are accumulated and stored in a predetermined area of the data buffer 24 (step S170). Note that the pixels for which histograms are to be accumulated may be pixels sampled according to an appropriate rule.

そして、現在のブロックが画像ファイルの最後のブロックでないときにはステップS100に戻り(ステップS180)、次のブロックについてステップS100〜S170の処理を繰り返し実行する。このように、画像ファイルを先頭から順に復元することにより、画像全体の画像データやRGB値のヒストグラムを取得してデータバッファ24に記憶するのである。   When the current block is not the last block of the image file, the process returns to step S100 (step S180), and the processes of steps S100 to S170 are repeatedly executed for the next block. Thus, by restoring the image file in order from the top, the image data of the entire image and the histogram of RGB values are acquired and stored in the data buffer 24.

こうして画像ファイルの最後のブロックまでステップS100〜S170の処理を繰り返し実行すると、次に、画像全体の画像データに基づいて画像内容を判定するオブジェクト認識処理を実行する(ステップS190)。ここで、画像印刷処理の説明を中断し、図4に例示するオブジェクト認識処理について説明する。   When the processes in steps S100 to S170 are repeatedly executed up to the last block of the image file in this way, next, an object recognition process for determining the image content based on the image data of the entire image is executed (step S190). Here, the description of the image printing process is interrupted, and the object recognition process illustrated in FIG. 4 will be described.

オブジェクト認識処理では、まず、図4に示すように、データバッファ24の所定領域に記憶した画像全体の画像データに基づいて肌色の画素からなる肌色領域を抽出する(ステップS400)。肌色領域の抽出は、肌色に相当するRGB値の範囲を予め定めておき、このRGB値の範囲内の画素を抽出することにより行なわれる。   In the object recognition process, first, as shown in FIG. 4, a skin color region including skin color pixels is extracted based on the image data of the entire image stored in the predetermined region of the data buffer 24 (step S400). The extraction of the skin color region is performed by previously determining a range of RGB values corresponding to the skin color and extracting pixels within the range of RGB values.

そして、抽出した肌色領域が人物の顔であるかを判断するために、肌色領域が画像の上辺または左右辺に接しているか否か、肌色領域内に人物の両目や口に相当する画素領域が存在するか否かについてそれぞれ判定する(ステップS410,S420)。ここで、両目や口に相当する画素領域が存在するか否かの判定は、肌色領域内の画素のうち周辺の画素より明度が低い画素領域を抽出し、この明度が低い画素領域が、図5に示すように、略逆三角形の頂点の位置(即ち、横方向に並ぶ二つの位置とこの二つの位置より下方向の一つの位置)に存在するときには、これらを両目や口に相当する画素領域と判定するものとした。   Then, in order to determine whether the extracted skin color area is a person's face, whether or not the skin color area touches the upper side or the left and right sides of the image, and a pixel area corresponding to both eyes and mouth of the person is in the skin color area. It is determined whether or not it exists (steps S410 and S420). Here, in order to determine whether or not there is a pixel area corresponding to both eyes and mouth, a pixel area having a lower brightness than the surrounding pixels is extracted from the pixels in the skin color area, and the pixel area having a lower brightness is shown in FIG. As shown in FIG. 5, when they exist at the positions of the apexes of a substantially inverted triangle (that is, two positions aligned in the horizontal direction and one position below the two positions), these pixels correspond to both eyes and mouth. The area was determined.

そして、肌色領域が上辺と左右辺のいずれにも接しておらず、両目や口に相当する画素領域が存在するときには、この肌色領域は人物の顔であると判断して画像内容を人物画像と判定し(ステップS430)、このオブジェクト認識処理を終了する。   When the skin color area is not in contact with either the upper side or the left and right sides and there is a pixel area corresponding to both eyes and mouth, the skin color area is determined to be a person's face, and the image content is defined as a person image. A determination is made (step S430), and the object recognition process is terminated.

一方、肌色領域が上辺と左右辺のいずれかに接していたり、両目や口に相当する画素領域が存在しないときには、画像を右方向へ90度回転し、回転した画像を対象に肌色領域が人物の顔であるか否かを判断する処理を、右方向への回転角度が270度となるまで繰り返し実行する(ステップS440,S450)。図6は、肌色領域が人物の顔であるかを判断する処理を繰り返し実行する様子の一例を示す説明図である。この例では、図示するように、最初の画像では抽出された肌色領域は右辺に接しているから人物の顔とは判断されず、画像を右方向へ90度回転すると、肌色領域は上辺と左右辺のいずれにも接しておらず両目や口に相当する画素領域も存在することになるから人物の顔と判断される。このように、画像の右方向への回転角度が270度となるまで90度ずつ回転しながら肌色領域が人物の顔であるかを判断する処理を繰り返し実行するのである。   On the other hand, when the skin color area is in contact with either the upper side or the left and right sides, or when there is no pixel area corresponding to both eyes or mouth, the image is rotated 90 degrees to the right, and the skin color area is a person for the rotated image. The process of determining whether or not the face is the same is repeated until the rotation angle in the right direction reaches 270 degrees (steps S440 and S450). FIG. 6 is an explanatory diagram showing an example of a state in which the process of determining whether the skin color area is a human face is repeatedly executed. In this example, as shown in the figure, since the extracted skin color area is in contact with the right side in the first image, it is not determined to be a human face, and when the image is rotated 90 degrees to the right, the skin color area is Since there is also a pixel area corresponding to both eyes and mouth that is not in contact with any of the sides, it is determined as a human face. In this way, the process of determining whether the skin color area is a human face is repeatedly executed while rotating by 90 degrees until the rotation angle of the image in the right direction reaches 270 degrees.

そして、画像の右方向への回転角度が270度となっても肌色領域が人物の顔と判断されないときには、次に、画像データに基づいて空色の画素からなる空色領域を抽出する(ステップS460)。空色領域の抽出は、肌色領域を抽出する際と同様に、空色に相当するRGB値の範囲を予め定めておき、このRGB値の範囲内の画素を抽出することにより行なわれる。   If the flesh-color area is not determined to be a human face even if the rotation angle of the image in the right direction is 270 degrees, then a sky-blue area composed of sky-blue pixels is extracted based on the image data (step S460). . As in the case of extracting the skin color area, the sky blue area is extracted by setting a range of RGB values corresponding to the sky blue in advance and extracting pixels within the range of RGB values.

次に、抽出した空色領域が画像の下辺に接しているか否かを判定し(ステップS470)、画像の下辺に接していないときには、この空色領域は空であると判断して画像内容を空を有する風景画像と判定し(ステップS480)、このオブジェクト認識処理を終了する。   Next, it is determined whether or not the extracted sky blue area is in contact with the lower side of the image (step S470). When the extracted sky blue area is not in contact with the lower side of the image, it is determined that the sky blue area is empty and the image content is set to empty. It is determined that the image has a landscape image (step S480), and the object recognition process is terminated.

一方、空色領域が画像の下辺に接しているときには、画像を左方向へ90度回転し、回転した画像を対象に空色領域が画像の下辺に接しているか否かを判定する処理を、画像の右方向への回転角度が0度となるまで繰り返し実行する(ステップS490,S500)。ここで、ステップS470を最初に実行する際には画像の右方向への回転角度が270度となっているから、左方向へ90度回転する処理を繰り返すことにより、右方向への回転角度が270度,180度,90度,0度となるように順に画像を回転することになる。図7は、空色領域が画像の下辺に接しているか否かを判定する処理を繰り返し実行する様子の一例を示す説明図である。この例では、図示するように、最初の画像や一度左方向へ90度回転した画像では抽出された空色領域は下辺に接しているから空とは判断されず、画像を二度左方向へ90度回転すると、空色領域は下辺に接していないから空と判断される。   On the other hand, when the sky blue area is in contact with the lower side of the image, the image is rotated 90 degrees to the left, and processing for determining whether the sky blue area is in contact with the lower side of the image is performed on the rotated image. The process is repeatedly executed until the rotation angle in the right direction becomes 0 degree (steps S490 and S500). Here, when step S470 is executed for the first time, the rotation angle of the image in the right direction is 270 degrees. Therefore, by repeating the process of rotating 90 degrees in the left direction, the rotation angle in the right direction is changed. The images are sequentially rotated so as to be 270 degrees, 180 degrees, 90 degrees, and 0 degrees. FIG. 7 is an explanatory diagram illustrating an example of a state in which the process of determining whether or not the sky blue region is in contact with the lower side of the image is repeatedly executed. In this example, as shown in the figure, in the first image or an image that is once rotated 90 degrees to the left, the extracted sky blue area is in contact with the lower side, so it is not determined that it is empty. When the angle is rotated, the sky blue area is determined to be empty because it does not touch the lower side.

そして、画像の右方向への回転角度が0度となっても空色領域が下辺に接しているときには、画像内容を空を有さない風景画像と判定して(ステップS510)、このオブジェクト認識処理を終了する。なお、ステップS460において空色領域を抽出する際に、画像データに空色領域が存在しないときには、画像内容は空を有さない風景画像と判定される。   If the sky blue area is in contact with the lower side even if the rotation angle of the image in the right direction is 0 degree, the image content is determined to be a landscape image having no sky (step S510), and this object recognition processing is performed. Exit. When the sky blue area is extracted in step S460, if there is no sky blue area in the image data, the image content is determined to be a landscape image having no sky.

こうしてオブジェクト認識処理により画像内容を判定すると、画像印刷処理では、次に、判定した画像内容や累計したRGB値のヒストグラムなどに基づいて画像ファイルに対して自動補正処理を施すための自動補正処理用パラメータを計算してデータバッファ24の所定領域に記憶する(ステップS200)。自動補正処理用パラメータの計算は、各種のルールを適用して行なうことができる。実施例では、画像内容が人物画像であるときには、肌色がより良好な肌色となるように補正する肌色補正処理やソフトフォーカス処理、明度をやや明るめに補正する明度補正処理などを施すようにパラメータを計算し、画像内容が風景画像であるときには、新緑色がより良好な新緑色となるように補正する新緑色補正処理や彩度が鮮やかとなるように補正する彩度補正処理などを施すようにパラメータを計算するものとした。また、画像内容が空を有する風景画像である場合には、さらに、空色がより良好な空色となるように補正する空色補正処理を施すようにパラメータを計算するものとした。なお、画像内容が人物画像であるか風景画像であるかに拘らず、RGB値のヒストグラムに応じて各種の画像補正処理(コントラスト補正処理やγ補正処理など)を施すようなパラメータの計算も行なわれる。   When the image content is determined by the object recognition processing in this way, the image printing processing is next performed for automatic correction processing for performing automatic correction processing on the image file based on the determined image content, a histogram of accumulated RGB values, and the like. The parameter is calculated and stored in a predetermined area of the data buffer 24 (step S200). The calculation of the parameters for automatic correction processing can be performed by applying various rules. In the embodiment, when the image content is a human image, the parameters are set so as to perform a skin color correction process and a soft focus process for correcting the skin color to be a better skin color, a brightness correction process for correcting the brightness to be slightly brighter, and the like. When the image content is a landscape image, a new green correction process that corrects the new green color to be a better new green color, a saturation correction process that corrects the saturation to be vivid, etc. The parameters were calculated. Further, when the image content is a landscape image having sky, the parameters are further calculated so as to perform sky blue correction processing for correcting the sky blue to be a better sky blue. Regardless of whether the image content is a person image or a landscape image, parameters are calculated such that various image correction processing (contrast correction processing, γ correction processing, etc.) is performed according to the RGB value histogram. It is.

こうして自動補正処理用パラメータを計算すると、画像ファイルの先頭に戻り、1アクセス単位のデータを読み込んでハフマン解凍し(ステップS210,S220)、1ブロック分のデータが解凍されると(ステップS230)、逆量子化処理や逆DCT演算処理,色変換処理を実行する(ステップS240〜S260)。   When the parameters for automatic correction processing are calculated in this way, the process returns to the top of the image file, reads data for one access unit, decompresses Huffman (steps S210 and S220), and decompresses data for one block (step S230). Inverse quantization processing, inverse DCT calculation processing, and color conversion processing are executed (steps S240 to S260).

続いて、計算した自動補正処理用パラメータに従ってこのブロックに対して自動補正処理を施して(ステップS270)、データバッファ24に出力する(ステップS280)。自動補正処理を施す際には、具体的には、自動補正処理用パラメータに基づいて生成された画素情報の変換テーブルであるルックアップテーブルを用いて画素情報を変換する処理が行なわれる。   Subsequently, the block is subjected to an automatic correction process according to the calculated automatic correction process parameter (step S270) and output to the data buffer 24 (step S280). When performing the automatic correction process, specifically, a process of converting the pixel information is performed using a lookup table that is a conversion table of the pixel information generated based on the parameters for the automatic correction process.

そして、データバッファ24に出力されるブロックが蓄積されてプリンタエンジン27により印刷を実行する単位であるバンド単位となるまで、ステップS210〜S280の処理を繰り返し実行し(ステップS290)、蓄積されたブロックがバンド単位となると、このバンド単位のデータに基づいて印刷データ生成部25により印刷データを生成してイメージバッファ26に出力し(図8参照)、この印刷データに基づいてプリンタエンジン27により印刷を実行する(ステップS300)。そして、画像ファイルの最後のブロックまで到達したときに(ステップS310)、この画像印刷処理を終了するのである。   Then, the processing of steps S210 to S280 is repeatedly executed until the blocks output to the data buffer 24 are accumulated and become a band unit which is a unit for executing printing by the printer engine 27 (step S290). Becomes the band unit, the print data generation unit 25 generates print data based on the band unit data and outputs the print data to the image buffer 26 (see FIG. 8), and the printer engine 27 performs printing based on the print data. Execute (step S300). When the last block of the image file is reached (step S310), the image printing process is terminated.

以上説明した実施例のプリンタ20によれば、画像ファイルの印刷指示がなされたときに、画像データから肌色領域や空色領域を抽出し、肌色領域が人物の顔であるかの判断や空色領域が空であるかの判断を90度単位で回転した画像を対象に行なって画像内容を判定することができる。即ち、画像を複数の回転角度で回転して画像内容の判定を行なうから、より確実に画像内容の判定を行なうことができる。この結果、画像内容に基づく画像補正処理をより適切に施すことができる。   According to the printer 20 of the embodiment described above, when an instruction to print an image file is given, a skin color area and a sky blue area are extracted from the image data, and it is determined whether the skin color area is a person's face or a sky blue area. The image content can be determined by determining whether it is empty or not with respect to an image rotated by 90 degrees. That is, since the image content is determined by rotating the image at a plurality of rotation angles, the image content can be determined more reliably. As a result, the image correction process based on the image content can be performed more appropriately.

ここで、実施例のプリンタ20では、オブジェクト認識処理を実行する制御部21や画像処理部23が画像内容判定手段に相当し、ステップS200〜ステップS290の処理を実行する制御部21や画像処理部23が画像処理手段に相当し、ステップS300の処理を実行する制御部21や印刷データ生成部25,プリンタエンジン27が印刷実行手段に相当する。また、肌色領域や空色領域がオブジェクト領域に相当する。   Here, in the printer 20 according to the embodiment, the control unit 21 and the image processing unit 23 that execute the object recognition process correspond to an image content determination unit, and the control unit 21 and the image processing unit that execute the processes in steps S200 to S290. 23 corresponds to an image processing unit, and the control unit 21, the print data generation unit 25, and the printer engine 27 that execute the process of step S 300 correspond to a print execution unit. The skin color area and sky blue area correspond to the object area.

実施例のプリンタ20では、肌色の画素からなる肌色領域を抽出して人物の顔であるかを判断するものとしたが、人物の顔と予測される領域を抽出することができればよく、その他の基準で抽出するものとしてもよい。例えば、隣接する画素との輝度差に基づくエッジ度が所定の閾値より大きなエッジ画素からなる領域を抽出して人物の顔であるかを判断するものとしてもよい。   In the printer 20 of the embodiment, the skin color area composed of skin color pixels is extracted to determine whether the face is a person's face. However, it is sufficient that an area predicted to be a person's face can be extracted. It is good also as what is extracted on the basis. For example, it is good also as what judges the face of a person by extracting the area | region which consists of an edge pixel whose edge degree based on a luminance difference with an adjacent pixel is larger than a predetermined threshold value.

実施例のプリンタ20では、肌色領域が画像の上辺と左右辺のいずれにも接していないことを条件の一つとして画像内容を人物画像と判定するものとしたが、上辺や左右辺に若干接していても構わない。   In the printer 20 of the embodiment, the image content is determined to be a person image on the condition that the skin color area is not in contact with either the upper side or the left and right sides of the image. It does not matter.

実施例のプリンタ20では、肌色領域が画像の上辺または左右辺に接しているか否か、肌色領域内に人物の両目や口に相当する画素領域が存在するか否かに基づいて画像内容を人物画像と判定するものとしたが、これに限られないのは勿論であり、これらのうち一方の条件を満たしたときに人物画像と判定するものとしてもよいし、その他の条件を用いるものとしても構わない。   In the printer 20 of the embodiment, the image content is determined based on whether the skin color area is in contact with the upper side or the left and right sides of the image, and whether the pixel area corresponding to both eyes and mouth of the person exists in the skin color area. Of course, it is determined that the image is an image. However, the present invention is not limited to this, and when one of these conditions is satisfied, it may be determined that the image is a person image, or another condition may be used. I do not care.

実施例のプリンタ20では、空色領域が画像の下辺に接しているか否かを判定するものとしたが、こうした空色領域の判定を行なわないものとしても差し支えない。この場合、画像内容が人物画像と判定されないときには、画像内容を風景画像と判定するものとすればよい。さらに、人物画像と風景画像以外の画像内容を判定するものとしても差し支えない。   In the printer 20 of the embodiment, it is determined whether or not the sky blue area is in contact with the lower side of the image. However, the determination of such a sky blue area may be omitted. In this case, when the image content is not determined to be a person image, the image content may be determined to be a landscape image. Furthermore, it is possible to determine image contents other than a person image and a landscape image.

実施例のプリンタ20では、肌色領域が人物の顔であるかの判断や空色領域が空であるかの判断を90度単位で回転した画像を対象に行なうものとしたが、回転する単位は90度に限られないのは勿論であり、例えば、30度単位や45度単位で回転するものとしてもよい。また、0度を含む複数の回転角度で回転した画像を対象とすればよく、その他の回転角度で回転した画像を対象とするものとしてもよい。   In the printer 20 of the embodiment, the determination as to whether the skin color area is a human face or the determination as to whether the sky blue area is empty is performed on an image rotated by 90 degrees. Needless to say, it is not limited to degrees, and for example, it may be rotated in units of 30 degrees or 45 degrees. Further, an image rotated at a plurality of rotation angles including 0 degrees may be targeted, and an image rotated at other rotation angles may be targeted.

実施例のプリンタ20では、画像の右方向への回転角度が270度となるまで90度ずつ回転しながら肌色領域が人物の顔であるかを判断し、その後、右方向への回転角度が0度となるまで左方向へ90度ずつ回転しながら空色領域が空であるかを判断するものとしたが、画像ファイルに撮影時の回転角度を示す撮影回転情報が含まれる場合には、この撮影回転情報に応じて画像の回転角度を定めるものとしてもよい。この場合、例えば、図4に代えて図9に例示するオブジェクト認識処理を実行するものとすればよい。即ち、図9に示すように、画像ファイルの撮影回転情報に基づいて撮影時の回転角度を取得すると共に(ステップS400a)、取得した撮影時の回転角度となるように画像を予め回転しておき(ステップS400b)、画像の右方向へのその後の回転角度が270度となるまで90度ずつ回転しながら肌色領域が人物の顔であるかを判断する処理を繰り返し実行する(ステップS400〜S450)。そして、空色領域が空であるかを判断する際には、撮影時の回転角度となるように回転した画像を用いて空色領域が画像の下辺に接しているか否かの判定を行なう(ステップS460a,S460〜S510)。こうすれば、撮影時の回転角度となるように回転した画像を優先して用いて肌色領域が人物の顔であるかを判断し、撮影時の回転角度となるように回転した画像のみを用いて空色領域が空であるかを判断するから、より効率的に画像内容の判定を行なうことができる。ここで、肌色領域が人物の顔であるかを判断する際に、撮影時の回転角度から90度単位で回転した画像も対象とするのは、人物画像の場合には、人物が寝転がったり逆立ちしたりした状態で撮影される場合が想定されるから、撮影時の回転角度で回転した画像のみを用いても確実な画像内容の判定を行なうことができないと考えられることに基づく。   In the printer 20 according to the embodiment, it is determined whether the skin color area is a human face while rotating 90 degrees at a time until the rotation angle of the image in the right direction reaches 270 degrees, and then the rotation angle in the right direction is 0. It is determined whether or not the sky blue area is empty while rotating 90 degrees to the left until it reaches the degree. However, if the image file includes shooting rotation information indicating the rotation angle at the time of shooting, this shooting is performed. The rotation angle of the image may be determined according to the rotation information. In this case, for example, the object recognition process illustrated in FIG. 9 may be executed instead of FIG. That is, as shown in FIG. 9, the rotation angle at the time of shooting is acquired based on the shooting rotation information of the image file (step S400a), and the image is rotated in advance so that the acquired rotation angle at the time of shooting is obtained. (Step S400b) The process of determining whether the skin color area is a human face while rotating by 90 degrees until the subsequent rotation angle of the image to the right reaches 270 degrees is repeatedly executed (Steps S400 to S450). . Then, when determining whether or not the sky blue area is empty, it is determined whether or not the sky blue area is in contact with the lower side of the image using the image rotated so as to have the rotation angle at the time of shooting (step S460a). , S460 to S510). In this way, the image rotated to the rotation angle at the time of shooting is preferentially used to determine whether the skin color area is a human face, and only the image rotated to the rotation angle at the time of shooting is used. Therefore, since it is determined whether the sky blue area is empty, the image content can be determined more efficiently. Here, when determining whether the skin color region is a person's face, an image that is rotated by 90 degrees from the rotation angle at the time of shooting is also targeted. In the case of a person image, the person lies down or stands upright. This is based on the fact that it is considered that reliable image content cannot be determined using only the image rotated at the rotation angle at the time of shooting.

実施例では、複数の回転角度で回転した画像を対象に画像内容の判定を行なう本発明をプリンタ20の形態として説明したが、こうした画像内容の判定を行なって画像補正処理を施す画像処理装置の形態としてもよい。また、こうした画像処理方法の形態としたり画像処理用プログラムの形態とすることもできる。   In the embodiment, the present invention for determining the image content for an image rotated at a plurality of rotation angles has been described as an embodiment of the printer 20, but an image processing apparatus that performs image correction processing by determining such image content. It is good also as a form. Further, it can be in the form of such an image processing method or an image processing program.

以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において、種々なる形態で実施し得ることは勿論である。   The best mode for carrying out the present invention has been described with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the gist of the present invention. Of course, it can be implemented in the form.

本発明の画像処理装置を搭載したプリンタ20の構成の概略を示す構成図。1 is a configuration diagram showing an outline of the configuration of a printer 20 equipped with an image processing apparatus of the present invention. 画像印刷処理の一例を示すフローチャート。6 is a flowchart illustrating an example of image printing processing. 画像ファイルのブロックとアクセス単位との関係を示す説明図。Explanatory drawing which shows the relationship between the block of an image file, and an access unit. オブジェクト認識処理の一例を示すフローチャート。The flowchart which shows an example of an object recognition process. 両目や口に相当する画素領域の一例を示す説明図。Explanatory drawing which shows an example of the pixel area | region corresponded to both eyes and an opening | mouth. 肌色領域が人物の顔であるかを判断する様子の一例を示す説明図。Explanatory drawing which shows an example of a mode which judges whether a skin color area | region is a person's face. 空色領域が空であるかを判断する様子の一例を示す説明図。Explanatory drawing which shows an example of a mode that it is judged whether a sky blue area | region is empty. 蓄積されたブロックがバンド単位となる様子を示す説明図。Explanatory drawing which shows a mode that the accumulate | stored block becomes a band unit. 変形例のオブジェクト認識処理の一例を示すフローチャート。The flowchart which shows an example of the object recognition process of a modification.

符号の説明Explanation of symbols

20 プリンタ、21 制御部、22 インタフェース部、23 画像処理部、24 データバッファ、25 印刷データ生成部、26 イメージバッファ、27 プリンタエンジン、30 記憶媒体、31 デジタルスチルカメラ、32 パーソナルコンピュータ。   20 printer, 21 control unit, 22 interface unit, 23 image processing unit, 24 data buffer, 25 print data generation unit, 26 image buffer, 27 printer engine, 30 storage medium, 31 digital still camera, 32 personal computer.

Claims (4)

画像に所定の画像補正処理を施して出力する画像処理装置であって、
指定された画像に所定の画像補正処理を施す指示がなされたときに、該画像の画素情報に基づいて該画像に含まれるオブジェクト領域を抽出し、該指定された画像を0度を含む複数の回転角度で回転させた各回転画像における該抽出したオブジェクト領域の配置に基づいて画像内容を判定する画像内容判定手段と、
該判定された画像内容に基づいて前記指定された画像に所定の画像補正処理を施して出力する画像処理手段と、
を備え
前記画像内容判定手段は、人物の顔と予測される人物予測領域を前記オブジェクト領域の一つとして抽出し、前記各回転画像のいずれかの画像における前記抽出した人物予測領域の配置が所定条件を満たすときに画像内容を人物画像であると判定する手段であって、前記人物予測領域の前記各回転画像の上辺および左右辺に接する量が所定量以下であることを前記所定条件の一つとして用いて画像内容を人物画像であると判定する手段である
画像処理装置。
An image processing apparatus that performs predetermined image correction processing on an image and outputs the image,
When an instruction to perform a predetermined image correction process is given to the designated image, an object region included in the image is extracted based on the pixel information of the image, and the designated image includes a plurality of degrees including 0 degrees. Image content determination means for determining the image content based on the arrangement of the extracted object region in each rotated image rotated at a rotation angle;
Image processing means for performing predetermined image correction processing on the designated image based on the determined image content, and outputting the processed image;
Equipped with a,
The image content determination means extracts a person prediction area predicted as a human face as one of the object areas, and the arrangement of the extracted person prediction areas in any one of the rotated images satisfies a predetermined condition. One of the predetermined conditions is a means for determining that the content of the image is a person image when satisfying, and that the amount of the person prediction area contacting the upper side and the left and right sides of each rotated image is equal to or less than a predetermined amount. An image processing apparatus as means for determining that the image content is a person image .
請求項1記載の画像処理装置と、
該画像処理装置から出力される画像を印刷する印刷実行手段と、
を備えるプリンタ。
An image processing apparatus according to claim 1 Symbol placement,
Print execution means for printing an image output from the image processing apparatus;
Printer with.
画像に所定の画像補正処理を施して出力する画像処理方法であって、
(a)指定された画像に所定の画像補正処理を施す指示がなされたときに、該画像の画素情報に基づいて該画像に含まれるオブジェクト領域を抽出し、該指定された画像を0度を含む複数の回転角度で回転させた各回転画像における該抽出したオブジェクト領域の配置に基づいて画像内容を判定し、
(b)該判定された画像内容に基づいて前記指定された画像に所定の画像補正処理を施して出力
前記ステップ(a)は、人物の顔と予測される人物予測領域を前記オブジェクト領域の一つとして抽出し、前記各回転画像のいずれかの画像における前記抽出した人物予測領域の配置が所定条件を満たすときに画像内容を人物画像であると判定するステップであって、前記人物予測領域の前記各回転画像の上辺および左右辺に接する量が所定量以下であることを前記所定条件の一つとして用いて画像内容を人物画像であると判定するステップである
画像処理方法。
An image processing method for performing a predetermined image correction process on an image and outputting the image,
(A) When an instruction to perform a predetermined image correction process is given to a specified image, an object area included in the image is extracted based on pixel information of the image, and the specified image is set to 0 degrees. Determining the image content based on the arrangement of the extracted object regions in each rotated image rotated at a plurality of rotation angles including,
(B) the output to the designated image by performing predetermined image correction processing based on the determination image content,
The step (a) extracts a person prediction area predicted as a person's face as one of the object areas, and the arrangement of the extracted person prediction areas in any one of the rotated images satisfies a predetermined condition. One of the predetermined conditions is a step of determining that the image content is a person image when satisfying, and that the amount of the person prediction area contacting the upper side and the left and right sides of each rotation image is equal to or less than a predetermined amount. An image processing method that is a step of determining that the image content is a person image .
画像に所定の画像補正処理を施して出力する画像処理用プログラムであって、
指定された画像に所定の画像補正処理を施す指示がなされたときに、該画像の画素情報に基づいて該画像に含まれるオブジェクト領域を抽出し、該指定された画像を0度を含む複数の回転角度で回転させた各回転画像における該抽出したオブジェクト領域の配置に基づいて画像内容を判定する画像内容判定モジュールと、
該判定された画像内容に基づいて前記指定された画像に所定の画像補正処理を施して出力する画像処理モジュールと、
を備え
前記画像内容判定モジュールは、人物の顔と予測される人物予測領域を前記オブジェクト領域の一つとして抽出し、前記各回転画像のいずれかの画像における前記抽出した人物予測領域の配置が所定条件を満たすときに画像内容を人物画像であると判定するモジュールであって、前記人物予測領域の前記各回転画像の上辺および左右辺に接する量が所定量以下であることを前記所定条件の一つとして用いて画像内容を人物画像であると判定するモジュールである
画像処理用プログラム。
An image processing program for performing predetermined image correction processing on an image and outputting the image,
When an instruction to perform a predetermined image correction process is given to the designated image, an object region included in the image is extracted based on the pixel information of the image, and the designated image includes a plurality of degrees including 0 degrees. An image content determination module that determines the image content based on the arrangement of the extracted object regions in each rotated image rotated at a rotation angle;
An image processing module that performs predetermined image correction processing on the specified image based on the determined image content, and outputs the image processing module;
Equipped with a,
The image content determination module extracts a person prediction area predicted as a person's face as one of the object areas, and the arrangement of the extracted person prediction area in any one of the rotated images satisfies a predetermined condition. One of the predetermined conditions is a module for determining that the image content is a person image when satisfying, and that the amount of the person prediction area contacting the upper side and the left and right sides of each rotation image is equal to or less than a predetermined amount. An image processing program which is a module used to determine that an image content is a person image .
JP2004291517A 2004-10-04 2004-10-04 Image processing apparatus, printer including the same, image processing method, and image processing program Expired - Fee Related JP4556602B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004291517A JP4556602B2 (en) 2004-10-04 2004-10-04 Image processing apparatus, printer including the same, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004291517A JP4556602B2 (en) 2004-10-04 2004-10-04 Image processing apparatus, printer including the same, image processing method, and image processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010128844A Division JP2010257472A (en) 2010-06-04 2010-06-04 Image processing apparatus, printer equipped with the same, and image processing method

Publications (2)

Publication Number Publication Date
JP2006107037A JP2006107037A (en) 2006-04-20
JP4556602B2 true JP4556602B2 (en) 2010-10-06

Family

ID=36376717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004291517A Expired - Fee Related JP4556602B2 (en) 2004-10-04 2004-10-04 Image processing apparatus, printer including the same, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP4556602B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252779A (en) * 2007-03-30 2008-10-16 Yamaha Corp Image processor, image processing method, program and camera
JP5256974B2 (en) * 2008-10-01 2013-08-07 セイコーエプソン株式会社 Image processing apparatus, image processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004030373A1 (en) * 2002-09-26 2004-04-08 Seiko Epson Corporation Adjusting output image of image data
JP2004236110A (en) * 2003-01-31 2004-08-19 Canon Inc Image processor, image processing method, storage medium and program
JP2004265431A (en) * 2004-04-05 2004-09-24 Konica Minolta Holdings Inc Face extraction method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004030373A1 (en) * 2002-09-26 2004-04-08 Seiko Epson Corporation Adjusting output image of image data
JP2004236110A (en) * 2003-01-31 2004-08-19 Canon Inc Image processor, image processing method, storage medium and program
JP2004265431A (en) * 2004-04-05 2004-09-24 Konica Minolta Holdings Inc Face extraction method

Also Published As

Publication number Publication date
JP2006107037A (en) 2006-04-20

Similar Documents

Publication Publication Date Title
JP4011933B2 (en) Image processing apparatus and method
JP5132517B2 (en) Image processing apparatus and image processing method
JP4176114B2 (en) Image compression apparatus, image reading apparatus including the same, image processing apparatus including the image compression apparatus, image forming apparatus including the same, and image compression processing method
US10373030B2 (en) Image processing apparatus that executes halftone process on target image data including edge pixel
JP6019573B2 (en) Recording apparatus and image processing method
US7315652B2 (en) Image processing apparatus
JP2004193964A (en) Picture processor, picture processing method, program and recording medium
US7720293B2 (en) Image processing apparatus, printing apparatus and image processing method
JP2006343863A (en) Image processor and image processing method
US7768674B2 (en) Exposure determining device and exposure determining method
US7570822B2 (en) Image processing apparatus, printer and control method of the image processing
JP2006217058A (en) Image processing apparatus, image processing method, program, and recording medium
JP4556602B2 (en) Image processing apparatus, printer including the same, image processing method, and image processing program
JP6693310B2 (en) Image processing apparatus, image processing method and program
US20060087699A1 (en) Image processing apparatus, control method of the same, and storage medium
US20090324063A1 (en) Image processing method and apparatus for correcting specific part
JP2001016452A (en) Image processor, image reader loading the same. image forming device and image processing method
JP2010257472A (en) Image processing apparatus, printer equipped with the same, and image processing method
JP4617808B2 (en) Image processing apparatus, printer including the same, and image processing method
JP4040528B2 (en) Image processing apparatus, image processing method, image processing program, recording medium storing image processing program, and image forming apparatus including image processing apparatus
JP4363292B2 (en) Image processing apparatus, printer including the same, and image processing method
JP4363291B2 (en) Image processing apparatus, printer including the same, and control method of image processing apparatus
JP4665802B2 (en) Lightness correction processing apparatus and lightness correction determination method
JP4742632B2 (en) Image processing apparatus, image processing method, and program
JP2006048223A (en) Image processor, image processing method and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100406

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100629

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100712

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130730

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees