JP2008243059A - Image processing device and method - Google Patents

Image processing device and method Download PDF

Info

Publication number
JP2008243059A
JP2008243059A JP2007085831A JP2007085831A JP2008243059A JP 2008243059 A JP2008243059 A JP 2008243059A JP 2007085831 A JP2007085831 A JP 2007085831A JP 2007085831 A JP2007085831 A JP 2007085831A JP 2008243059 A JP2008243059 A JP 2008243059A
Authority
JP
Japan
Prior art keywords
image
skin color
correction
unit
color information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007085831A
Other languages
Japanese (ja)
Inventor
Toshihiko Kako
俊彦 加來
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007085831A priority Critical patent/JP2008243059A/en
Publication of JP2008243059A publication Critical patent/JP2008243059A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To create an image, on which natural skin improvement processing is carried out, by easy operation. <P>SOLUTION: The image processing device is provided with an image input part, an image correction part performing correction processing on an input image, an external input means for inputting various instructions, an image display part, an object detection part detecting a specific object person from the input image, a skin color setting part setting information about a skin color from the detected object person, a skin color information reading part reading information about a previously defined skin color, a skin color extraction part extracting pixels of a skin color similar to the set skin color from the image based on the information of the set skin color, an area setting part setting a parameter by merging the extracted skin color pixels as a correction target area for each area and setting mask information for correcting only the correction target area, and an image output part creating output image data from the input digital image data, the corrected image data, and the mask information. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像処理装置及び画像処理方法に係り、特に、画像中から被写体人物を抽出して美肌処理等の画像処理を行う画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method, and more particularly to an image processing apparatus and an image processing method for extracting a subject person from an image and performing image processing such as skin beautification processing.

従来、原画像の所定の領域に画像を合成して合成画像を作成する画像処理装置が知られており、例えば、肌の領域にメイクを施した画像を合成して表示するようにして、化粧品の購入者が、化粧品の購入時にその化粧品の効果を確認するための化粧シミュレーションを行う等に利用されている。   2. Description of the Related Art Conventionally, there is known an image processing apparatus that creates a composite image by combining an image with a predetermined region of an original image. For example, a cosmetic product that combines and displays an image with makeup applied to a skin region. Is used for performing a makeup simulation for confirming the effect of the cosmetic when the cosmetic is purchased.

このような画像処理装置として、例えば、処理対象となる顔を示す原画像の所定の処理範囲、及び画素の色階調、輝度、色相、彩度等の属性の範囲を指定し、その処理範囲において当該属性範囲に属する画素を抽出して、例えば、肌の領域を認識し、その領域(肌の領域)に合成用の画像(メイクを施した画像)を合成し、合成画像を作成して表示するようにしたものが提案されている(例えば、特許文献1等参照)。
特開2005−78158号公報
As such an image processing apparatus, for example, a predetermined processing range of an original image indicating a face to be processed and a range of attributes such as pixel color gradation, luminance, hue, and saturation are specified, and the processing range Extract the pixels belonging to the attribute range, for example, recognize the skin area, synthesize the composition image (make-up image) to the area (skin area), and create a composite image A display has been proposed (see, for example, Patent Document 1).
JP 2005-78158 A

しかしながら、上記従来技術は、原画像に基づいて簡便に領域認識等を行うことを目的としてはいるが、なお、仕上がり具合の確認及び修整が煩雑であり面倒臭く、必ずしも簡便とは言えないという問題がある。   However, although the above prior art is intended to easily perform region recognition based on the original image, there is a problem that confirmation and modification of the finish is complicated and troublesome, and is not necessarily simple. is there.

本発明は、このような事情に鑑みてなされたもので、より簡便な操作により、自然な美肌処理がなされた画像を作成することのできる画像処理装置及び画像処理方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and an object thereof is to provide an image processing apparatus and an image processing method capable of creating an image subjected to natural skin beautification through a simpler operation. To do.

前記目的を達成するために、請求項1に記載の発明は、デジタル画像データを入力する画像入力部と、前記デジタル画像データに対して補正処理を施す画像補正部と、画像処理装置に対する各種指示を入力するための外部入力手段と、前記入力された画像及び前記補正処理の施された画像を表示するための画像表示部と、前記デジタル画像データから特定の被写体人物を検出する被写体検出部と、前記検出した被写体人物から肌色の情報を設定する肌色設定部と、予め定義された肌色の情報を読み込む肌色情報読込部と、前記設定された肌色の情報に基づいて、この肌色と類似した肌色の画素を前記デジタル画像データ中から抽出する肌色抽出部と、前記抽出した肌色の画素を補正対象領域として領域毎にまとめてパラメータを設定するとともに補正対象領域にのみ補正を掛けるためのマスク情報を設定する領域設定部と、前記入力されたデジタル画像データと、前記補正処理が施された画像データと、前記マスク情報から出力画像データを作成する画像出力部と、を備え、前記画像表示部の表示により画像の仕上がり具合を確認するとともに、前記外部入力手段からの指示により補正の修整を行うことを特徴とする画像処理装置を提供する。   In order to achieve the above object, an invention according to claim 1 is directed to an image input unit that inputs digital image data, an image correction unit that performs correction processing on the digital image data, and various instructions to the image processing apparatus. An external input means for inputting the image, an image display unit for displaying the input image and the image subjected to the correction process, and a subject detection unit for detecting a specific subject person from the digital image data, A skin color setting unit for setting skin color information from the detected subject person, a skin color information reading unit for reading skin color information defined in advance, and a skin color similar to this skin color based on the set skin color information A skin color extraction unit for extracting the pixels of the image from the digital image data, and setting the parameters collectively for each region using the extracted skin color pixels as the correction target region An area setting unit for setting mask information for applying correction only to the correction target area, the input digital image data, the image data subjected to the correction process, and output image data from the mask information And an image output unit configured to check the finish of the image by displaying on the image display unit, and to perform correction correction according to an instruction from the external input unit.

これにより、補正が施された画像の仕上がり具合の確認及びその修整を簡便に行うことができ、自然な美肌画像を作成することができる。   As a result, it is possible to easily check the finish of the corrected image and correct it, and to create a natural skin-beautifying image.

また、請求項2に示すように、請求項1に記載の画像処理装置であって、さらに、前記検出した被写体人物から設定された肌色の情報と、前記予め定義された肌色の情報とを比較し、前記検出した被写体人物から設定された肌色の情報が前記予め定義された肌色の情報の所定の範囲内に入るか否か判定する手段を備え、前記検出した被写体人物から設定された肌色の情報が前記予め定義された肌色の情報の所定の範囲内に入らない場合には、前記検出した被写体人物から設定された肌色の情報を廃棄することを特徴とする。   The image processing apparatus according to claim 1, further comprising: comparing skin color information set from the detected subject person with the predefined skin color information. And means for determining whether or not the skin color information set from the detected subject person falls within a predetermined range of the predefined skin color information, and the skin color information set from the detected subject person is included. When the information does not fall within a predetermined range of the predefined skin color information, the skin color information set from the detected subject person is discarded.

これにより、例えば、被写体人物の顔でないものを顔であるとして検出してしまったような場合でも、その失敗による不適切な補正処理を回避することができる。   As a result, for example, even when an object other than the face of the subject person is detected as a face, an inappropriate correction process due to the failure can be avoided.

また、請求項3に示すように、請求項1または2に記載の画像処理装置であって、さらに、補正を掛ける強度を設定する補正強度設定部を備え、補正処理を掛ける画像の位置に応じて、その補正の強度を変えるようにしたことを特徴とする。   According to a third aspect of the present invention, the image processing apparatus according to the first or second aspect further includes a correction intensity setting unit that sets an intensity to be corrected, according to a position of the image to be corrected. Thus, the intensity of the correction is changed.

これにより、被写体やその画像中の位置に応じて補正強度を適切に変更することができる。   Thereby, the correction strength can be appropriately changed according to the subject and the position in the image.

また、同様に前記目的を達成するために、請求項4に記載の発明は、デジタル画像データを入力する工程と、前記デジタル画像データに対して補正処理を施す工程と、前記入力された画像及び前記補正処理の施された画像を表示する工程と、前記表示された画像に基づいて、前記画像に対する補正処理の仕上がりを確認するとともに、前記補正の修整を行う工程と、前記デジタル画像データから特定の被写体人物を検出する工程と、前記検出した被写体人物から肌色の情報を設定する工程と、予め定義された肌色の情報を読み込む工程と、前記設定された肌色の情報に基づいて、この肌色と類似した肌色の画素を前記デジタル画像データ中から抽出する工程と、前記抽出した肌色の画素を補正対象領域として領域毎にまとめてパラメータを設定するとともに補正対象領域にのみ補正を掛けるためのマスク情報を設定する工程と、前記入力されたデジタル画像データと、前記補正処理が施された画像データと、前記マスク情報から出力画像データを作成する工程と、を備え、前記表示された画像により補正処理の施された画像の仕上がり具合を確認するとともに、前記画像に対する補正の修整を行うことを特徴とする画像処理方法を提供する。   Similarly, in order to achieve the object, the invention according to claim 4 includes a step of inputting digital image data, a step of performing correction processing on the digital image data, the input image and A step of displaying the image subjected to the correction processing, a step of confirming a finish of the correction processing for the image based on the displayed image, a correction of the correction, and a determination from the digital image data Detecting the subject person, setting the skin color information from the detected subject person, reading the skin color information defined in advance, and the skin color based on the set skin color information. A process for extracting similar skin-color pixels from the digital image data, and setting the parameters for each region using the extracted skin-color pixels as correction target regions. And setting mask information for correcting only the correction target area, generating the input digital image data, the image data subjected to the correction processing, and output image data from the mask information And an image processing method comprising: confirming a finish level of an image that has been subjected to correction processing based on the displayed image, and correcting correction of the image.

これにより、補正が施された画像の仕上がり具合の確認及びその修整を簡便に行うことができ、自然な美肌画像を作成することができる。   As a result, it is possible to easily check the finish of the corrected image and correct it, and to create a natural skin-beautifying image.

また、請求項5に示すように、請求項4に記載の画像処理方法であって、さらに、前記検出した被写体人物から設定された肌色の情報と、前記予め定義された肌色の情報とを比較し、前記検出した被写体人物から設定された肌色の情報が前記予め定義された肌色の情報の所定の範囲内に入るか否か判定する工程を含み、前記検出した被写体人物から設定された肌色の情報が前記予め定義された肌色の情報の所定の範囲内に入らない場合には、前記検出した被写体人物から設定された肌色の情報を廃棄することを特徴とする。   The image processing method according to claim 4, further comprising: comparing the skin color information set from the detected subject person with the predefined skin color information. And determining whether or not the skin color information set from the detected subject person falls within a predetermined range of the predefined skin color information, and the skin color information set from the detected subject person is included. When the information does not fall within a predetermined range of the predefined skin color information, the skin color information set from the detected subject person is discarded.

これにより、画像処理の途中において処理の失敗が発生しても適切な処理を行うことができ、破綻の少ない、より自然な美肌処理を行うことが可能となる。   Accordingly, even if a processing failure occurs during image processing, it is possible to perform appropriate processing, and it is possible to perform more natural skin-beautifying processing with less failure.

また、請求項6に示すように、請求項4または5に記載の画像処理方法であって、さらに、補正を掛ける強度を設定する工程を含み、補正処理を掛ける画像の位置に応じて、その補正の強度を変えるようにしたことを特徴とする。   According to a sixth aspect of the present invention, the image processing method according to the fourth or fifth aspect further includes a step of setting a strength to be corrected, and depending on a position of the image to be corrected, The correction strength is changed.

これにより、被写体やその画像中の位置に応じて補正強度を適切に変更することができる。   Thereby, the correction strength can be appropriately changed according to the subject and the position in the image.

以上説明したように、本発明によれば、補正が施された画像の仕上がり具合の確認及びその修整を簡便に行うことができ、自然な美肌画像を作成することができる。   As described above, according to the present invention, it is possible to easily check the finish of the corrected image and to correct it, and to create a natural skin-beautifying image.

以下、添付図面を参照して、本発明に係る画像処理装置及び画像処理方法について詳細に説明する。   Hereinafter, an image processing apparatus and an image processing method according to the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明に係る画像処理装置の一実施形態の概略構成を示すブロック図である。   FIG. 1 is a block diagram showing a schematic configuration of an embodiment of an image processing apparatus according to the present invention.

図1に示すように、本実施形態の画像処理装置1は、画像入力部10、被写体検出部12、肌色設定部14、肌色情報読込部16、肌色抽出部18、領域設定部20、画像補正部22、画像出力部24、画像表示部26及び外部入力手段28を有して構成されている。   As shown in FIG. 1, the image processing apparatus 1 according to the present embodiment includes an image input unit 10, a subject detection unit 12, a skin color setting unit 14, a skin color information reading unit 16, a skin color extraction unit 18, a region setting unit 20, and image correction. A unit 22, an image output unit 24, an image display unit 26 and an external input unit 28 are configured.

画像入力部10は、デジタルカメラによる撮影によって取得された画像や、スキャナによる読取りによって取得された画像などのデジタル画像データを入力するものである。画像入力部10から入力されたデジタル画像データは、被写体検出部12、画像補正部22および画像出力部24に送られる。   The image input unit 10 inputs digital image data such as an image acquired by photographing with a digital camera or an image acquired by reading with a scanner. Digital image data input from the image input unit 10 is sent to the subject detection unit 12, the image correction unit 22, and the image output unit 24.

被写体検出部12は、入力されたデジタル画像データの表す画像中の被写体人物の顔を検出する顔検出処理や、顔の中の目、眉、鼻、口などの顔の部品を検出する顔部品検出処理を行うものである。顔検出方法の一例としては、例えば、次のようなものがある。すなわち、まずR、G、Bの各色で表される画像をH(色相値)、L(明度値)、S(彩度値)で表される画像に変換し、互いに直交する色相値軸、彩度値軸および画素数軸からなる座標系を用いて、色相値および彩度値についての2次元ヒストグラムを求め、求めた2次元ヒストグラムを山毎に分割し、2次元ヒストグラムのクラスタリングを行う。クラスタリングされた2次元ヒストグラムの山に基づいて多数の画素のクラスタリングを行い、このクラスタリングに基づいて画面を分割し、分割された領域から人物の顔の候補となる領域を抽出し、この顔の候補として抽出された色領域を円または長円の領域に更に分割し、この分割された領域に基づいて顔の領域を推定する。   The subject detection unit 12 performs face detection processing for detecting the face of the subject person in the image represented by the input digital image data, and facial parts for detecting facial parts such as eyes, eyebrows, nose, and mouth in the face. A detection process is performed. An example of the face detection method is as follows. That is, first, an image represented by each color of R, G, and B is converted into an image represented by H (hue value), L (lightness value), S (saturation value), and hue value axes orthogonal to each other, Using a coordinate system consisting of a saturation value axis and a pixel number axis, a two-dimensional histogram for the hue value and the saturation value is obtained, and the obtained two-dimensional histogram is divided for each mountain, and clustering of the two-dimensional histogram is performed. Clustering of a large number of pixels is performed based on the clustered two-dimensional histogram peaks, the screen is divided based on the clustering, and a human face candidate area is extracted from the divided areas. The color area extracted as is further divided into circle or oval areas, and the face area is estimated based on the divided areas.

顔検出は、このように自動的に行ってもよいし、あるいは操作者がマウスやキーボード等の外部入力手段28を用いて画像表示部26の表示画面に表示された画像中の被写体人物の顔領域を指定することによって顔領域を抽出するようにしてもよい。   The face detection may be automatically performed as described above, or the face of the subject person in the image displayed on the display screen of the image display unit 26 by the operator using the external input means 28 such as a mouse or a keyboard. The face area may be extracted by designating the area.

肌色設定部14は、被写体検出部12によって検出された顔領域における色相、彩度および明度のヒストグラムを用いて信頼度の高い肌色の画素を抽出し、肌色として設定するものである。   The skin color setting unit 14 extracts skin color pixels with high reliability using the hue, saturation, and lightness histograms in the face area detected by the subject detection unit 12, and sets them as the skin color.

肌色情報読込部16は、事前に定義されメモリに保存されていた肌色情報を読み込み、肌色設定部14に渡すものである。例えば肌色情報読込部16は、被写体検出部12で被写体が検出できない場合(顔検出に失敗した場合)に、事前に定義されメモリに保存されていた肌色情報を読み込んで肌色設定部14に渡すと、肌色設定部14は、この肌色情報に基づいて肌色を設定する。   The skin color information reading unit 16 reads the skin color information defined in advance and stored in the memory, and passes the skin color information to the skin color setting unit 14. For example, when the subject detection unit 12 cannot detect the subject (when face detection fails), the skin color information reading unit 16 reads the skin color information previously defined and stored in the memory and passes it to the skin color setting unit 14. The skin color setting unit 14 sets the skin color based on the skin color information.

この事前に定義された肌色情報は、様々な肌色の情報を総合したものを1つ定義して保存されている場合には、それが肌色情報読込部16によって自動的に読み込まれる。また、性別、年齢、人種等様々な肌色の情報が複数定義されて保存されている場合には、操作者の指定によって肌色情報読込部16が読み込むようにしてもよい。さらに、肌色設定部14は、このように事前に定義された肌色情報を読み込むのではなく、例えば大ラボなどにおいては、同様の画像を大量に扱うことが多いため、現在処理している画像の前後で同じ様な画像の処理をしている場合があるため、前後の画像で使用した肌色を自動的に読み込んで肌色として設定するようにしてもよい。   If the pre-defined skin color information is defined and stored as a combination of various skin color information, it is automatically read by the skin color information reading unit 16. In addition, when a plurality of skin color information such as sex, age, and race are defined and stored, the skin color information reading unit 16 may read the information according to the designation of the operator. Furthermore, the skin color setting unit 14 does not read the skin color information defined in advance in this way, but, for example, in a large lab, the same image is often handled in large quantities, and therefore the currently processed image is not processed. Since similar images may be processed before and after, the skin color used in the previous and next images may be automatically read and set as the skin color.

なお、肌色情報読込部16は、上述したように、被写体検出部12が被写体の検出に失敗した場合に肌色情報を読み込むようにするだけでなく、被写体検出部12が被写体を検出した場合であっても、事前に定義されメモリに保存されていた肌色情報を読み込んで肌色設定部14に渡すようにしてもよい。   The skin color information reading unit 16 is not only configured to read the skin color information when the subject detection unit 12 fails to detect the subject as described above, but also when the subject detection unit 12 detects the subject. Alternatively, the skin color information defined in advance and stored in the memory may be read and passed to the skin color setting unit 14.

この場合、肌色設定部14は、その検出した被写体から設定した肌色と、肌色情報読込部16が読み込んだ肌色情報とを比較し、検出した被写体の肌色が肌色情報読込部16が読み込んだ肌色情報の所定の範囲内にあるか否か判定することにより、被写体検出ミスをチェックする。すなわち、検出した被写体の肌色が肌色情報読込部16が読み込んだ肌色情報の所定の範囲内にない場合には、この被写体は本来は被写体ではないのに、誤って被写体として検出されたものと判断し、この被写体から設定された肌色の情報は廃棄し、以後この被写体は被写体としては扱わないようにしてその処理を中止するようにする。   In this case, the skin color setting unit 14 compares the skin color set from the detected subject with the skin color information read by the skin color information reading unit 16, and the skin color of the detected subject is read by the skin color information reading unit 16. The subject detection error is checked by determining whether or not it is within the predetermined range. That is, when the detected skin color of the subject is not within the predetermined range of the skin color information read by the skin color information reading unit 16, it is determined that the subject is not detected as a subject but is erroneously detected as a subject. However, the skin color information set from this subject is discarded, and thereafter, the subject is not treated as a subject and the processing is stopped.

肌色抽出部18は、肌色設定部14が設定した肌色に基づいて、設定された肌色と類似した肌色の画素を画像中から抽出することにより、被写体人物中の肌色領域を抽出するものである。   The skin color extraction unit 18 extracts a skin color region in the subject person by extracting, from the image, a skin color pixel similar to the set skin color based on the skin color set by the skin color setting unit 14.

肌色領域を抽出する方法としては、例えば、設定された肌色を有する画素に対して隣接する所定領域の色相、彩度および明度を調べ、所定の条件を満たす領域を肌色領域として加え、肌色領域を広げて成長させ、この成長した肌色領域について、さらに輪郭の抽出などを行い、この領域をさらに成長させて行き、このような処理を、成長させるべき近隣の画素がなくなるか、このような処理の繰り返し回数が所定数に達するまで行うことによって肌色領域を抽出する方法が知られているが、特にこの方法に限定されるものではない。   As a method for extracting the skin color area, for example, the hue, saturation, and brightness of a predetermined area adjacent to a pixel having a set skin color are examined, and an area that satisfies a predetermined condition is added as a skin color area. Expand and grow, perform further contour extraction etc. on this grown skin color area, further grow this area, and such processing will be done if there are no neighboring pixels to grow or such processing A method for extracting a skin color region by performing the repetition until the number of repetitions reaches a predetermined number is known, but the method is not particularly limited to this method.

なお、被写体検出部12で被写体が2つ(被写体人物が2人)以上検出された場合には、その2人の肌色を合わせた結果を肌色として設定し、肌色抽出部18で肌色画素を抽出するようにしてもよい。あるいは、このとき2人の各々の肌色をそれぞれ別々に肌色として設定し、各々肌色抽出部18で肌色画素を抽出するようにしてもよい。   When two or more subjects (two subject persons) are detected by the subject detection unit 12, the result of combining the skin colors of the two is set as the skin color, and the skin color extraction unit 18 extracts the skin color pixels. You may make it do. Alternatively, at this time, the skin color of each of the two persons may be set separately as the skin color, and the skin color extraction unit 18 may extract the skin color pixels.

さらに、被写体検出部12で被写体が2つ(被写体人物が2人)以上検出された場合に、各々の被写体に対する肌色領域であることが分かるようにラベリングしてもよい。このラベリングは、どの肌色に近いかで判断すればよい。あるいは被写体の位置に近い方をラベリングすればよい。   Further, when two or more subjects (two subject persons) are detected by the subject detection unit 12, labeling may be performed so that the skin color region for each subject can be recognized. This labeling may be determined according to which skin color is close to. Alternatively, it is only necessary to label the one closer to the subject.

領域設定部20は、抽出された肌色領域を補正対象領域として設定するものである。また、領域設定部20は、後述する被写体を含む画像全体が補正された全体補正画像と、掛け合わせたときに補正対象領域のみにその補正が施された画像が得られるようなマスク画像を作成する。   The area setting unit 20 sets the extracted skin color area as a correction target area. In addition, the area setting unit 20 creates a mask image that can obtain an entire corrected image in which an entire image including a subject, which will be described later, is corrected, and an image in which the correction is applied only to the correction target area when being combined. To do.

なお、領域設定部20においては、抽出した肌色領域に対して、セグメント処理やラベリング処理をしてもよい。また、領域設定部20では、抽出した肌色領域に対し、形状が肌らしくなるように調整するようにしてもよい。例えば、ストロボ等で白トビした画素を追加しても良い。   Note that the region setting unit 20 may perform segment processing or labeling processing on the extracted skin color region. Further, the region setting unit 20 may adjust the extracted skin color region so that the shape looks like skin. For example, a pixel that is white with a strobe or the like may be added.

画像補正部22は、美肌処理やスムージングやノイズ抑制処理を行うものである。すなわち、画像補正部22は、補正対象領域の補正後の目標となる補正値、例えば、所定の明度と補正対象領域における明度の平均値もしくは中間値との差分に基づいて、補正対象領域を補正する際の補正量として適正と思われる補正量(画像上の所定の成分毎の補正の程度)を算出し、これを初期値として用いて被写体人物を含む画像全体を補正する。   The image correction unit 22 performs skin beautification processing, smoothing, and noise suppression processing. That is, the image correction unit 22 corrects the correction target area based on a correction value that is a target after correction of the correction target area, for example, a difference between a predetermined brightness and an average value or an intermediate value of the brightness in the correction target area. A correction amount that is considered appropriate as a correction amount (a degree of correction for each predetermined component on the image) is calculated, and this is used as an initial value to correct the entire image including the subject person.

画像出力部24は、入力画像と補正画像とマスク画像を合成して出力画像を作成し、出力するものである。すなわち、画像出力部24は、画像補正部22による全体補正画像と、画像入力部10から送られた被写体人物を含む元の入力画像とを、対応する各画素毎にマスク画像が表す所定の重みで合成することによって、補正対象領域のみが部分的に補正された補正済画像を作成する。ここで、全体補正画像は美肌処理を含み、マスク画像が表す重みは美肌強度情報を含んでいる。   The image output unit 24 generates an output image by combining the input image, the correction image, and the mask image, and outputs the output image. That is, the image output unit 24 has a predetermined weight represented by the mask image for each corresponding pixel between the entire corrected image by the image correcting unit 22 and the original input image including the subject person sent from the image input unit 10. In this way, a corrected image in which only the correction target area is partially corrected is created. Here, the entire corrected image includes skin beautification processing, and the weight represented by the mask image includes skin beautification strength information.

画像表示部26は、画像処理装置1に入力され、画像処理が施される画像を表示するものであり、LCD(液晶ディスプレイ)やCRT(Cathode Ray Tube)等の画像を表示する表示画面(図示省略)を有している。   The image display unit 26 displays an image input to the image processing apparatus 1 and subjected to image processing, and displays a display screen (illustrated) such as an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube). (Omitted).

外部入力手段28は、マウスやキーボードその他の入力手段によって構成され、操作者が画像表示部26の表示画面を見ながら画像処理装置1に対して指示を出すものである。   The external input unit 28 is configured by a mouse, a keyboard, or other input unit, and the operator issues an instruction to the image processing apparatus 1 while viewing the display screen of the image display unit 26.

このように、本実施形態では、画像表示部26及び外部入力手段28を備えることにより、表示画面によって画像の仕上がり具合を確認するとともに、その修整を簡便に行うことを可能とするものである。   As described above, in the present embodiment, by providing the image display unit 26 and the external input unit 28, it is possible to check the finish of the image on the display screen and easily modify the image.

図2に、画像表示部26及び外部入力手段28の詳細な構成の一例を示す。   FIG. 2 shows an example of a detailed configuration of the image display unit 26 and the external input unit 28.

図2に示すように、画像表示部26は、表示画面に例えば指定フォルダ内や指定フォルダ以下の画像群をサムネイル画像として表示させる画像一覧表示部30を有している。   As shown in FIG. 2, the image display unit 26 includes an image list display unit 30 that displays, for example, an image group in the designated folder or below the designated folder as thumbnail images on the display screen.

また、外部入力手段28は、画像一覧表示部30によって表示画面に表示された画像群(サムネイル画像)の中から画像を選択する画像選択手段32及び選択した各画像に対して設定すべき補正条件を指示する条件設定手段34の機能を有している。   The external input unit 28 also includes an image selection unit 32 for selecting an image from an image group (thumbnail image) displayed on the display screen by the image list display unit 30, and a correction condition to be set for each selected image. The function of the condition setting means 34 for instructing is provided.

このとき、画像一覧表示部30によって表示画面にサムネイル画像を表示しておき、その中で同じ補正条件によって補正したい画像を画像選択手段32によって複数選択してから、これらの複数選択された画像に対して条件設定手段34によって同一の条件を設定するように指示してもよい。   At this time, thumbnail images are displayed on the display screen by the image list display unit 30, and a plurality of images to be corrected under the same correction conditions are selected by the image selection unit 32, and then the plurality of selected images are displayed. Alternatively, the condition setting means 34 may instruct the same condition to be set.

条件設定手段34では、各補正パラメータを直接入力してもよいし、予め決まっている複数のパラメータセットの中から選択するようにしてもよい。   In the condition setting means 34, each correction parameter may be directly input, or may be selected from a plurality of predetermined parameter sets.

このように、本実施形態においては、画像をサムネイル表示して、美肌処理を行うか行わないかを選択するとともに、美肌処理をする場合の強度を簡単に選択することができるようになっている。   As described above, in this embodiment, images are displayed as thumbnails, and it is possible to select whether or not to perform skin beautification, and to easily select the strength when skin beautifying is performed. .

また、図3に、画像表示部26及び外部入力手段28付近の詳細な構成の他の一例を示す。   FIG. 3 shows another example of the detailed configuration in the vicinity of the image display unit 26 and the external input unit 28.

図3に示す例では、外部入力手段28は、被写体選択手段36および条件設定手段34の機能を有し、被写体検出部12によって検出された被写体についてその検出結果を画像表示部26の表示画面に表示し、検出できていない被写体については、被写体選択手段36によって追加で被写体を選択するようにしてもよい。   In the example shown in FIG. 3, the external input unit 28 has functions of a subject selection unit 36 and a condition setting unit 34, and the detection result of the subject detected by the subject detection unit 12 is displayed on the display screen of the image display unit 26. For a subject that is displayed and cannot be detected, the subject may be additionally selected by subject selection means 36.

例えば、顔の検出結果を表示画面に表示し、検出できなかった顔については、操作者が表示画面を見ながら、被写体選択手段36によって矩形で指定するようにしてもよい。このとき、この指定は、両目や鼻を指定してもよい。   For example, the face detection result may be displayed on the display screen, and the face that could not be detected may be designated as a rectangle by the subject selection means 36 while the operator looks at the display screen. At this time, this designation may designate both eyes and nose.

また、被写体選択手段36では、検出した被写体について検出結果を表示画面に表示し、被写体でないのに誤って被写体であるとして検出した部分については、削除するように指示を出してもよい。例えば、顔の検出結果を赤枠で表示し、誤って検出した部分については枠指定してから消去するようにしてもよい。   In addition, the subject selection means 36 may display a detection result for the detected subject on the display screen, and may instruct to delete a portion that is erroneously detected as a subject although it is not a subject. For example, the face detection result may be displayed in a red frame, and the erroneously detected portion may be erased after designating the frame.

また、被写体選択手段36では、検出した被写体が複数いる場合に、それらの被写体についての検出結果を表示し、それらのうちの1つ以上を指定した後、条件設定手段34でその各被写体毎の各補正パラメータを設定するように指示してもよい。例えば、男女が写っている画像に対して、女性を指定すると、ウィンドウが開き、女性用の各補正パラメータが入力できるようになり、男性を指定すると、男性用の各補正パラメータが入力できるようにしてもよい。   Further, when there are a plurality of detected subjects, the subject selection means 36 displays the detection results for those subjects, and after specifying one or more of them, the condition setting means 34 for each subject. It may be instructed to set each correction parameter. For example, if you specify a woman for an image that shows men and women, a window will open allowing you to enter correction parameters for women.If you specify a man, you can enter correction parameters for men. May be.

なお、条件を設定した各被写体について、目印を入れるようにしてもよい。例えば、顔検出結果を赤枠で表示するとした時に、補正条件が設定された顔の赤枠を青枠に変更するようにしてもよい。あるいは、マウスをこの被写体に近づけたときにポップウィンドが表示され、そこに条件が記述されているようにしてもよい。   In addition, you may make it insert a mark about each to-be-photographed object. For example, when the face detection result is displayed in a red frame, the red frame of the face for which correction conditions are set may be changed to a blue frame. Alternatively, a pop window may be displayed when the mouse is brought close to the subject, and conditions may be described there.

また、顔認証技術と組み合わせて、その被写体について既に他の画像で条件が設定されていた場合に、その画像中の被写体について自動で同様の条件を設定するようにしてもよい。この場合には、上記と同様の目印を入れるようにしてもよい。あるいは、上記とは異なる目印、例えば緑枠など、を入れるようにしてもよい。   Further, in combination with the face authentication technology, when the condition for the subject has already been set in another image, the same condition may be automatically set for the subject in the image. In this case, you may make it insert the same mark as the above. Alternatively, a mark different from the above, for example, a green frame may be inserted.

また、図4に、画像表示部26及び外部入力手段28付近の詳細な構成の他の例を示す。   FIG. 4 shows another example of a detailed configuration in the vicinity of the image display unit 26 and the external input unit 28.

図4に示す例においては、顔や肌の一部を拡大して補正処理の確認をするために、外部入力手段28は画像中の一部をトリミングするよう指示する画像トリミング部38としての機能及び条件設定手段34としての機能を有している。また、画像表示部26は、トリミングされた画像の一部を拡大して表示画面に表示するよう指示する拡大画像表示部40を有している。   In the example shown in FIG. 4, the external input means 28 functions as an image trimming unit 38 for instructing to trim a part of the image in order to enlarge a part of the face and skin and confirm the correction process. And a function as the condition setting means 34. The image display unit 26 also includes an enlarged image display unit 40 that instructs to enlarge a part of the trimmed image and display it on the display screen.

画像トリミング部38では、被写体検出部12の結果および領域設定部20の結果の両方の結果あるいは少なくともその一方の結果を受け取り、画像トリミングの範囲を決定し、さらに、画像入力部10から入力された入力画像および画像補正部22で補正処理が施された補正画像の両方あるいはその一方の画像からトリミング画像が作成される。   The image trimming unit 38 receives both the result of the subject detection unit 12 and the result of the region setting unit 20 or at least one of the results, determines the image trimming range, and further receives the result from the image input unit 10. A trimmed image is created from both the input image and / or the corrected image that has been corrected by the image correction unit 22.

また、拡大画像表示部40は、トリミング画像を表示画面に表示する。操作者は、その表示画面を見ながら、外部入力手段28の条件設定手段34の機能を用いて各補正パラメータを調整する。トリミング範囲は、例えば、検出した顔を拡大するようにすればよい。あるいは顔周辺以外の肌について拡大するようにすればよい。   The enlarged image display unit 40 displays the trimmed image on the display screen. The operator adjusts each correction parameter using the function of the condition setting unit 34 of the external input unit 28 while viewing the display screen. For the trimming range, for example, the detected face may be enlarged. Or what is necessary is just to enlarge about skins other than the face periphery.

また、図5に、画像表示部26及び外部入力手段28付近の詳細な構成のさらに他の例を示す。   FIG. 5 shows still another example of the detailed configuration in the vicinity of the image display unit 26 and the external input unit 28.

図5に示すものは、マスクの修整に関連するものである。画像表示部26は、領域情報付与部42及び領域情報付与画像表示部44を有している。また、外部入力手段28は、領域情報修整手段46としての機能を有している。   What is shown in FIG. 5 relates to mask modification. The image display unit 26 includes a region information addition unit 42 and a region information addition image display unit 44. Further, the external input unit 28 has a function as the area information modification unit 46.

領域情報付与部42では、画像入力部10から入力された入力画像あるいは画像補正部22で補正処理が施された補正画像にマスク情報を付与した形で画像を表示画面に表示できるようにするものである。例えば、マスクの強度情報を青色の濃淡で表示するようにしてもよい。   The area information adding unit 42 allows an image to be displayed on a display screen in a form in which mask information is added to an input image input from the image input unit 10 or a corrected image subjected to correction processing by the image correcting unit 22. It is. For example, mask intensity information may be displayed in blue shades.

領域情報修整手段46では、領域情報付与画像の領域情報を修整する。例えば、肌でないところを肌として抽出した領域や、肌なのに抽出できなかった領域を修整する。   The area information modifying means 46 modifies the area information of the area information added image. For example, a region where a portion that is not skin is extracted as skin or a region that is skin but could not be extracted is corrected.

なお、領域情報修整手段46での具体的な修整手段としては、例えば「フォトショップ(Photoshop)」(登録商標)のブラシツールのようなものを用いて直接指定するようにしてもよい。あるいは、領域情報修整手段46での修整手段としては、例えば、ラベリングされた領域を指定することで領域を肌領域と肌領域でない領域と切り替えてもよい。   In addition, as a specific modification means in the area information modification means 46, for example, a brush tool such as “Photoshop” (registered trademark) may be directly designated. Alternatively, as the modifying means in the region information modifying means 46, for example, a region may be switched between a skin region and a non-skin region by specifying a labeled region.

以下、図6〜8のフローチャートに沿って、本実施形態の作用である画像処理方法について説明する。   Hereinafter, the image processing method which is the operation of the present embodiment will be described along the flowcharts of FIGS.

図6は、画像処理全体の流れを示すフローチャートであり、図7は、特に肌色設定に関する部分の詳細を示すフローチャートであり、また図8は、領域設定に関する部分の詳細を示すフローチャートである。   FIG. 6 is a flowchart showing the flow of the entire image processing, FIG. 7 is a flowchart showing details of a part related particularly to skin color setting, and FIG. 8 is a flowchart showing details of a part related to region setting.

まず、図6のステップS100において、画像入力部10より画像データが入力されると、入力された画像は、それぞれ被写体検出部12および画像補正部22に送られる。   First, when image data is input from the image input unit 10 in step S100 of FIG. 6, the input images are sent to the subject detection unit 12 and the image correction unit 22, respectively.

そして、ステップS110において、被写体検出部12は入力画像中の被写体人物を検出する。また、一方ステップS120において、画像補正部22は、入力画像の画像全体に対して画像補正処理を施す。   In step S110, the subject detection unit 12 detects a subject person in the input image. On the other hand, in step S120, the image correction unit 22 performs image correction processing on the entire input image.

被写体検出部12は、前述したように、入力画像から被写体人物およびその顔あるいは顔の部品等を検出する。   As described above, the subject detection unit 12 detects a subject person and its face or facial parts from the input image.

次のステップS130において、被写体検出部12が被写体を検出したか否か判定し、もし被写体が検出されなかった場合には、ステップS140に進み、肌色情報読込部16で、予め定義されている肌色情報を読み込む。読み込まれた肌色情報は肌色設定部14に送られる。   In the next step S130, it is determined whether or not the subject detection unit 12 has detected a subject. If no subject has been detected, the process proceeds to step S140, and the skin color information reading unit 16 defines the skin color defined in advance. Read information. The read skin color information is sent to the skin color setting unit 14.

ステップS150において、肌色設定部14は、被写体の検出があった場合には、その検出された被写体人物の顔の部分の画素を用いて肌色を設定する。このとき、被写体の検出がなかった場合には、肌色情報読込部16で読み込まれた肌色情報により肌色を設定する。   In step S150, when the subject is detected, the skin color setting unit 14 sets the skin color using the pixels of the detected face portion of the subject person. At this time, if the subject is not detected, the skin color is set based on the skin color information read by the skin color information reading unit 16.

次にステップS160において、肌色抽出部18は、上で設定された肌色を用いて、画像全体から肌色の画素を抽出する。次にステップS170において、領域設定部20は、抽出された肌色画素をまとめて補正対象となる肌色領域として設定する。また、領域設定部20は、前述したように、設定された肌色領域にのみ補正が掛かるように、マスク画像(マスク情報)を作成する。   In step S160, the skin color extracting unit 18 extracts skin color pixels from the entire image using the skin color set above. Next, in step S170, the region setting unit 20 collectively sets the extracted skin color pixels as a skin color region to be corrected. Further, as described above, the region setting unit 20 creates a mask image (mask information) so that correction is applied only to the set skin color region.

次にステップS180において、画像出力部24は、画像補正部22で補正された補正画像と、入力画像およびマスク画像を合成して最終的に補正対象領域にのみ補正が施された補正済み画像が作成される。   Next, in step S180, the image output unit 24 combines the corrected image corrected by the image correcting unit 22, the input image and the mask image, and finally corrects the corrected image that has been corrected only in the correction target region. Created.

また、図7は、肌色設定に関連する部分の詳細フローチャートである。図7に示す処理は、顔検出のエラーに関わるものであり、図6の全体フローの他にこのような処理を行ってもよいというものである。   FIG. 7 is a detailed flowchart of a portion related to skin color setting. The process shown in FIG. 7 relates to a face detection error, and such a process may be performed in addition to the overall flow of FIG.

すなわち、顔検出エラーには、画像中に顔が写っているのに検出できないという場合と、画像中の顔でない部分を顔であるとして検出してしまう場合とがある。顔でない部分が顔であると検出された場合には、間違った肌色が設定されてしまい全く予期せぬ補正がなされてしまう場合がある。そこで、これに対処するために、図7に示すフローチャートにおいては、被写体が検出された場合であっても、肌色情報を読み込むようにしている。   That is, the face detection error includes a case where a face is reflected in the image but cannot be detected, and a case where a non-face portion in the image is detected as a face. If it is detected that a non-face portion is a face, an incorrect skin color may be set and an unexpected correction may be made. Therefore, in order to cope with this, in the flowchart shown in FIG. 7, even when the subject is detected, the skin color information is read.

すなわち、ステップS110において、被写体検出処理が行われ、被写体が検出されると(図7では、図6のステップS130、S140を省略している。)、ステップS150において、肌色設定部14において肌色が設定されるが、図7においては、ステップS152において、(被写体が検出された場合であっても)肌色情報読込部16により、予め定義されている肌色の情報が読み込まれ、検出された被写体の肌色と、予め定義された肌色とが比較される。   That is, in step S110, subject detection processing is performed and a subject is detected (in FIG. 7, steps S130 and S140 in FIG. 6 are omitted), in step S150, the skin color is set in the skin color setting unit 14. In FIG. 7, in step S152, the skin color information reading unit 16 reads the skin color information defined in advance (even if the subject is detected), and the detected subject is detected. The skin color is compared with a predefined skin color.

ステップS154において、検出された被写体の肌色が予め定義された肌色情報の範囲内にはない場合には、ステップS156において、検出された被写体の肌色の情報を破棄し、検出された被写体の顔検出の結果は使用しないこととする。   In step S154, if the detected skin color of the subject is not within the range of the predefined skin color information, in step S156, the detected skin color information of the subject is discarded and the detected face of the subject is detected. The result of is not used.

一方、ステップS154において、検出された被写体の肌色が予め定義された肌色情報の範囲内にある場合には、その肌色を設定し、ステップS160において、その肌色により肌色抽出が行われる。そして、次のステップS162において、他に検出された被写体があるか否か判断し、他に被写体が検出されている場合には、ステップS150に戻り、上記の処理を繰り返す。他に被写体がない場合には、図6のステップS170に進み、次の領域設定の処理が行われる。   On the other hand, if the detected skin color of the subject is within the range of the predefined skin color information in step S154, the skin color is set, and in step S160, the skin color is extracted with the skin color. Then, in the next step S162, it is determined whether or not there is another detected subject. If another subject is detected, the process returns to step S150 and the above processing is repeated. If there is no other subject, the process proceeds to step S170 in FIG. 6 and the next region setting process is performed.

また、図8に示すフローチャートは、領域設定に関連するものである。図8に示される処理は、画像中に2人の人が写っている場合で、2人が被写体として検出された場合における処理の例であり、図7の処理と同様に、図6の全体フローの他にこのような処理を行ってもよいというものである。   Further, the flowchart shown in FIG. 8 relates to area setting. The process shown in FIG. 8 is an example of a process in the case where two people are shown in the image and two people are detected as subjects. Similar to the process in FIG. 7, the entire process in FIG. Such processing may be performed in addition to the flow.

図8のステップS110において、まず1人について肌色設定(ステップS150)および肌色抽出(ステップS160)を行い、ステップS162で他に被写体がいないか判断し、他に被写体がいる場合には、ステップS150に戻り、他の被写体についても肌色設定(ステップS150)および肌色抽出(ステップS160)を行うようにする。   In step S110 of FIG. 8, skin color setting (step S150) and skin color extraction (step S160) are first performed for one person, and it is determined whether there are other subjects in step S162. If there are other subjects, step S150 is performed. Returning to FIG. 5, the skin color setting (step S150) and the skin color extraction (step S160) are performed for other subjects.

このように、被写体が2人検出された場合には、それぞれの肌の色は異なるので、それぞれの被写体について、肌色設定(ステップS150)および肌色抽出(ステップS160)を行なおうというものである。   As described above, when two subjects are detected, the skin colors are different from each other, so that the skin color setting (step S150) and the skin color extraction (step S160) are performed for each subject. .

次に、ステップS164において、各被写体について作成した肌色の情報を比較し、近似判定を行う。そして予め設定された近似判定の条件により、各肌色が近似していると判定された場合には、これらの肌色を一つにまとめてもよいし、あるいは、被写体が2人以上いる場合には、近似している肌色の画素の情報を他の一方の画素にくっつけるようにしてもよい。ステップS166では、近似判定が全画素について終了したか否か判断し、全ての画素について終了するまで繰り返すようにする。   Next, in step S164, the skin color information created for each subject is compared, and approximation determination is performed. Then, if it is determined that the skin colors are approximated according to preset approximation determination conditions, these skin colors may be combined into one, or if there are two or more subjects Alternatively, the information of the approximate skin color pixel may be attached to the other pixel. In step S166, it is determined whether or not the approximation determination has been completed for all the pixels, and the process is repeated until all the pixels are completed.

このように、本実施形態においては、被写体検出等の途中処理において失敗したとしても、それに応じて適切な処理を行うことができ、また、被写体やその画像中での位置に応じた適切な補正処理を施すことが可能となる。その結果、破綻が少なく、より自然な美肌処理等の補正処理が実現される。また、入力画像と美肌処理画像および美肌強度情報(マスク画像)をレイヤ構造で保存して出力するなど、修正のし易い形式で出力することが可能となった。   As described above, in the present embodiment, even if processing in the middle of subject detection or the like fails, appropriate processing can be performed accordingly, and appropriate correction according to the subject and its position in the image can be performed. Processing can be performed. As a result, correction processing such as more natural skin beautification processing is realized with less breakdown. In addition, it is possible to output the input image, the skin beautification image, and the skin beautification strength information (mask image) in a format that can be easily corrected, for example, by saving and outputting the layer structure.

次に、本発明の画像処理装置の適用例として、写真館とラボとをネットワークで結んだネットワークフォトサービスシステムとしてのプリント注文システムについて説明する。   Next, as an application example of the image processing apparatus of the present invention, a print order system as a network photo service system in which a photo studio and a laboratory are connected by a network will be described.

図9に、プリント注文システムの概略を示す。   FIG. 9 shows an outline of the print ordering system.

図9に示すように、このプリント注文システム50は、顧客の撮影を行ったりプリントの注文を受け付ける写真館52とラボ54とがインターネット等のネットワーク56を介して接続されている。   As shown in FIG. 9, in this print ordering system 50, a photo studio 52 that accepts a photograph of a customer and receives a print order and a laboratory 54 are connected via a network 56 such as the Internet.

写真館52は、顧客からのプリント注文を受け付けるものであるが、フォトスタジオを有し、顧客のポートレート撮影等を行うようにしてもよい。写真館52に設置されたコンピュータ端末52aは、ネットワーク56を介してラボ54のサーバ54aと接続されており、顧客から注文を受けたプリントの画像データを入力し、画像情報に補正条件を付与してラボ54のサーバ54aに送信するものである。   The photo studio 52 accepts print orders from customers. However, the photo studio 52 may have a photo studio and take portraits of customers. The computer terminal 52a installed in the photo studio 52 is connected to the server 54a of the lab 54 via the network 56, inputs image data of a print ordered from a customer, and gives correction conditions to the image information. To the server 54a of the lab 54.

写真館52のコンピュータ端末52aでは、顧客の注文に応じた所定の画像処理条件を設定する。このとき、コンピュータ端末52aにより簡単な画像処理を行い、コンピュータ端末52aに接続された表示手段に画像処理の結果を表示して顧客に示すようにしてもよい。   In the computer terminal 52a of the photo studio 52, predetermined image processing conditions are set according to the customer's order. At this time, simple image processing may be performed by the computer terminal 52a, and the result of the image processing may be displayed on the display means connected to the computer terminal 52a to be shown to the customer.

ラボ54のサーバ54aは、写真館52のコンピュータ端末52aから送信された画像データと画像処理条件を受け取る。ラボ54は、本発明に係る画像処理装置を有するデジタルミニラボ54bを備えており、サーバ54aが受信した画像データ(画像情報)と画像処理条件(条件情報)により画像処理を行い、プリントを作成する。作成されたプリントは写真館52あるいは顧客が指定した受け取り店等に配送あるいは郵送される。   The server 54a of the lab 54 receives image data and image processing conditions transmitted from the computer terminal 52a of the photo studio 52. The lab 54 includes a digital minilab 54b having an image processing apparatus according to the present invention, and performs image processing based on image data (image information) and image processing conditions (condition information) received by the server 54a to create a print. . The created print is delivered or mailed to the photo studio 52 or a receiving store designated by the customer.

図10に、写真館52における注文受け付けシステムの概略構成を示す。   FIG. 10 shows a schematic configuration of an order receiving system in the photo studio 52.

図10に示すように、写真館52のコンピュータ端末52aは、画像入力部60、画像表示部62、外部入力手段64、条件設定部66及び画像情報条件情報送信部68を備えている。   As shown in FIG. 10, the computer terminal 52 a of the photo studio 52 includes an image input unit 60, an image display unit 62, an external input unit 64, a condition setting unit 66, and an image information condition information transmission unit 68.

画像入力部60は、デジタルカメラによる撮影によって取得された画像や、スキャナによる読取りによって取得された画像などのデジタル画像データを入力するものである。画像入力部60より入力された画像データは、画像表示部62に送られる。   The image input unit 60 inputs digital image data such as an image acquired by photographing with a digital camera or an image acquired by reading with a scanner. The image data input from the image input unit 60 is sent to the image display unit 62.

画像表示部62は、画像入力部60から入力された画像を表示するものであり、LCD(液晶ディスプレイ)やCRT(Cathode Ray Tube)等の画像を表示する表示画面(図示省略)を有している。   The image display unit 62 displays the image input from the image input unit 60, and has a display screen (not shown) for displaying an image such as an LCD (liquid crystal display) or a CRT (Cathode Ray Tube). Yes.

外部入力手段64は、マウスやキーボードその他の入力手段によって構成され、操作者が画像表示部62の表示画面を見ながら条件設定部66等に対して画像処理(画像補正)条件等の指示を出すものである。   The external input means 64 is constituted by a mouse, a keyboard, or other input means, and an operator issues an instruction such as image processing (image correction) conditions to the condition setting section 66 while viewing the display screen of the image display section 62. Is.

条件設定部66は、各画像に対する補正条件を設定するものである。条件設定部66においては、上述したように外部入力手段64から各補正パラメータを直接入力してもよいし、予め決まっている複数のパラメータセットの中から選択するようにしてもよい。   The condition setting unit 66 sets correction conditions for each image. In the condition setting unit 66, each correction parameter may be directly input from the external input unit 64 as described above, or may be selected from a plurality of predetermined parameter sets.

画像情報条件情報送信部68は、画像情報に補正条件を付与して、ラボ54のサーバ54aに送信する。また、画像情報条件情報送信部68は、補正条件が付与された画像情報を送信する一方で、保存するようにしてもよい。   The image information condition information transmission unit 68 assigns correction conditions to the image information and transmits them to the server 54 a of the lab 54. Further, the image information condition information transmission unit 68 may transmit the image information to which the correction condition is given while storing the image information.

また、図11は、写真館52のコンピュータ端末52aの画像入力部60、画像表示部62付近の詳細な構成を示すブロック図である。   FIG. 11 is a block diagram showing a detailed configuration in the vicinity of the image input unit 60 and the image display unit 62 of the computer terminal 52a of the photo studio 52.

図11に示すように、画像入力部60と画像表示部62の間に画像補正部61を設け、入力画像を画像補正部61で補正した結果を画像表示部62に表示するようにしてもよい。   As shown in FIG. 11, an image correction unit 61 may be provided between the image input unit 60 and the image display unit 62, and the result of correcting the input image by the image correction unit 61 may be displayed on the image display unit 62. .

この補正結果の表示は、いわば顧客に対するプレゼンテーションのためのものであり、その場合の補正は、簡易的な補正でもよい。このように顧客に対して画像補正(美肌処理)の結果を表示して示すことにより、顧客の承認を得てから注文を受けることで、顧客の満足のいくプリント注文が可能となる。このとき画像データと補正パラメータが一緒にラボ54に送信される。   The display of the correction result is for presentation to the customer, so that the correction in that case may be a simple correction. Thus, by displaying and displaying the result of image correction (skin-beautifying process) to the customer, the customer can obtain an order after obtaining the approval of the customer, so that the customer can satisfy the print order. At this time, the image data and the correction parameters are transmitted to the laboratory 54 together.

図12に、ラボ54のサーバ54a及びデジタルミニラボ54bに組み込まれた画像処理装置の概略構成を示す。   FIG. 12 shows a schematic configuration of an image processing apparatus incorporated in the server 54a and the digital minilab 54b of the laboratory 54.

図12に示すように、サーバ54aは、画像情報条件情報受信部70、画像選別部72を有している。画像情報条件情報受信部70は、写真館52のコンピュータ端末52aの画像情報条件情報送信部68から送信された補正条件が付与された画像情報を受信する。   As illustrated in FIG. 12, the server 54 a includes an image information condition information reception unit 70 and an image selection unit 72. The image information condition information receiving unit 70 receives the image information with the correction condition transmitted from the image information condition information transmitting unit 68 of the computer terminal 52 a of the photo studio 52.

画像選別部72は、画像情報条件情報受信部70が受信した画像から画像処理が必要な画像を選別してデジタルミニラボ54bに送出する。すなわち、画像選別部72は、特に美肌情報の有無によって、次の工程(美肌工程)に画像を流すか否かを選別する。補正条件毎に美肌工程が分かれている場合には、画像選別部72で選別するようにしてもよい。   The image selection unit 72 selects an image that requires image processing from the image received by the image information condition information reception unit 70 and sends the image to the digital minilab 54b. That is, the image sorting unit 72 sorts whether or not to flow an image to the next process (skin beautification process), particularly depending on the presence or absence of skin beautification information. If the skin beautifying process is divided for each correction condition, the image selecting unit 72 may select the skin beautifying process.

このように、本実施形態では、ラボ54における画像の選別工程が簡便化される。   Thus, in this embodiment, the image selection process in the laboratory 54 is simplified.

一方、デジタルミニラボ54bに組み込まれた画像処理装置の構成は、図1に示された画像処理装置1と同様である。すなわち、デジタルミニラボ54bの画像処理装置は、画像入力部80、被写体検出部82、肌色設定部84、肌色情報読込部86、肌色抽出部88、領域設定部90、画像補正部92、画像出力部94、画像表示部96及び外部入力手段98を有して構成されており、各部の機能は図1の画像処理装置1における各部の機能と同様である。   On the other hand, the configuration of the image processing apparatus incorporated in the digital minilab 54b is the same as that of the image processing apparatus 1 shown in FIG. That is, the image processing apparatus of the digital minilab 54b includes an image input unit 80, a subject detection unit 82, a skin color setting unit 84, a skin color information reading unit 86, a skin color extraction unit 88, an area setting unit 90, an image correction unit 92, and an image output unit. 94, an image display unit 96 and an external input unit 98. The functions of the respective units are the same as the functions of the respective units in the image processing apparatus 1 of FIG.

画像選別部72で選別された画像は、画像入力部80から入力され、前述したように、その後被写体検出、肌色設定、肌色抽出、領域設定等が行われる一方、画像補正部92において写真館52から送信された条件情報によって補正処理(美肌処理)が行われる。その処理において、画像処理が施される画像は画像表示部96に表示され、操作者は画像表示部96の表示画面により画像の仕上がり具合を確認しながら、外部入力手段98から各種の指示を入力してその修整を簡便に行うことができる。   The image selected by the image selection unit 72 is input from the image input unit 80, and as described above, subject detection, skin color setting, skin color extraction, region setting, and the like are performed thereafter, while the image correction unit 92 performs a photo studio 52. A correction process (skin-beautifying process) is performed according to the condition information transmitted from. In this processing, the image to be subjected to image processing is displayed on the image display unit 96, and the operator inputs various instructions from the external input means 98 while checking the image finish on the display screen of the image display unit 96. Thus, the modification can be easily performed.

このように、本実施形態によれば、例えば美肌処理をかけるかかけないかの画像選択を容易に行うことができ、また、美肌結果を簡単に確認することができるとともに、補正のマスクを簡単に修整することができ、このようなより簡便な操作によって、自然な美肌画像を作成することが可能となる。   As described above, according to the present embodiment, for example, it is possible to easily select an image as to whether or not to apply a beautifying process, to easily confirm the beautifying result, and to easily use a correction mask. It is possible to create a natural beautiful skin image by such a simpler operation.

以上、本発明の画像処理装置及び画像処理方法について詳細に説明したが、本発明は、以上の例には限定されず、本発明の要旨を逸脱しない範囲において、各種の改良や変形を行ってもよいのはもちろんである。   Although the image processing apparatus and the image processing method of the present invention have been described in detail above, the present invention is not limited to the above examples, and various improvements and modifications are made without departing from the gist of the present invention. Of course it is also good.

本発明に係る画像処理装置の一実施形態の概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of an embodiment of an image processing apparatus according to the present invention. 図1の画像処理装置における画像表示部及び外部入力手段の詳細な構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a detailed configuration of an image display unit and an external input unit in the image processing apparatus of FIG. 1. 同じく画像表示部及び外部入力手段付近の詳細な構成の他の一例を示すブロック図である。It is a block diagram which similarly shows another example of the detailed structure of an image display part and external input means vicinity. 同じく画像表示部及び外部入力手段付近の詳細な構成の他の例を示すブロック図である。It is a block diagram which similarly shows the other example of the detailed structure of an image display part and external input means vicinity. 画像表示部及び外部入力手段付近の詳細な構成のさらに他の例を示すブロック図である。It is a block diagram which shows the further another example of the detailed structure of an image display part and external input means vicinity. 画像処理全体の流れを示すフローチャートである。It is a flowchart which shows the flow of the whole image processing. 肌色設定に関する部分の詳細を示すフローチャートである。It is a flowchart which shows the detail of the part regarding skin color setting. 領域設定に関する部分の詳細を示すフローチャートである。It is a flowchart which shows the detail of the part regarding area | region setting. プリント注文システムの概略を示すシステム構成図である。1 is a system configuration diagram showing an outline of a print ordering system. 写真館における注文受け付けシステムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the order reception system in a photo studio. 写真館のコンピュータ端末の画像入力部及び画像表示部付近の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the image input part and image display part vicinity of the computer terminal of a photo studio. ラボにおけるサーバ及びデジタルミニラボ等のシステムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of systems, such as a server in a laboratory, and a digital minilab.

符号の説明Explanation of symbols

1…画像処理装置、10…画像入力部、12…被写体検出部、14…肌色設定部、16…肌色情報読込部、18…肌色抽出部、20…領域設定部、22…画像補正部、24…画像出力部、26…画像表示部、28…外部入力手段、30…画像一覧表示部、32…画像選択手段、34…条件設定手段、36…被写体選択手段、38…画像トリミング部、40…拡大画像表示部、42…領域情報付与部、44…領域情報付与画像表示部、46…領域情報修整手段、52…写真館、52a…コンピュータ端末52a、54…ラボ、54a…サーバ、54b…デジタルミニラボ、56…インターネット   DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 10 ... Image input part, 12 ... Subject detection part, 14 ... Skin color setting part, 16 ... Skin color information reading part, 18 ... Skin color extraction part, 20 ... Area setting part, 22 ... Image correction part, 24 Image output unit 26 Image display unit 28 External input unit 30 Image list display unit 32 Image selection unit 34 Condition setting unit 36 Subject selection unit 38 Image trimming unit 40 Enlarged image display unit 42... Region information adding unit 44. Region information adding image display unit 46. Region information modifying means 52 52 Photo studio 52 a Computer terminal 52 a 54 Laboratory 48 a Server 54 b Digital Minilab, 56 ... Internet

Claims (6)

デジタル画像データを入力する画像入力部と、
前記デジタル画像データに対して補正処理を施す画像補正部と、
画像処理装置に対する各種指示を入力するための外部入力手段と、
前記入力された画像及び前記補正処理の施された画像を表示するための画像表示部と、
前記デジタル画像データから特定の被写体人物を検出する被写体検出部と、
前記検出した被写体人物から肌色の情報を設定する肌色設定部と、
予め定義された肌色の情報を読み込む肌色情報読込部と、
前記設定された肌色の情報に基づいて、この肌色と類似した肌色の画素を前記デジタル画像データ中から抽出する肌色抽出部と、
前記抽出した肌色の画素を補正対象領域として領域毎にまとめてパラメータを設定するとともに補正対象領域にのみ補正を掛けるためのマスク情報を設定する領域設定部と、
前記入力されたデジタル画像データと、前記補正処理が施された画像データと、前記マスク情報から出力画像データを作成する画像出力部と、
を備え、前記画像表示部の表示により画像の仕上がり具合を確認するとともに、前記外部入力手段からの指示により補正の修整を行うことを特徴とする画像処理装置。
An image input unit for inputting digital image data;
An image correction unit that performs correction processing on the digital image data;
External input means for inputting various instructions to the image processing apparatus;
An image display unit for displaying the input image and the image subjected to the correction process;
A subject detection unit for detecting a specific subject person from the digital image data;
A skin color setting unit for setting skin color information from the detected subject person;
A skin color information reading unit that reads information of a predefined skin color;
A skin color extraction unit that extracts skin color pixels similar to the skin color from the digital image data based on the set skin color information;
An area setting unit for setting mask information for applying correction only to the correction target area while setting the parameters collectively for each area using the extracted skin color pixels as the correction target area;
The input digital image data, the image data subjected to the correction process, and an image output unit for creating output image data from the mask information;
An image processing apparatus for checking the finish of the image by displaying on the image display unit and correcting the correction according to an instruction from the external input means.
請求項1に記載の画像処理装置であって、さらに、前記検出した被写体人物から設定された肌色の情報と、前記予め定義された肌色の情報とを比較し、前記検出した被写体人物から設定された肌色の情報が前記予め定義された肌色の情報の所定の範囲内に入るか否か判定する手段を備え、前記検出した被写体人物から設定された肌色の情報が前記予め定義された肌色の情報の所定の範囲内に入らない場合には、前記検出した被写体人物から設定された肌色の情報を廃棄することを特徴とする画像処理装置。   The image processing apparatus according to claim 1, further comprising: comparing skin color information set from the detected subject person with the predefined skin color information and setting from the detected subject person. Means for determining whether the skin color information falls within a predetermined range of the predefined skin color information, and the skin color information set from the detected subject person is the predefined skin color information. If the image does not fall within the predetermined range, the skin color information set from the detected subject person is discarded. 請求項1または2に記載の画像処理装置であって、さらに、補正を掛ける強度を設定する補正強度設定部を備え、補正処理を掛ける画像の位置に応じて、その補正の強度を変えるようにしたことを特徴とする画像処理装置。   The image processing apparatus according to claim 1, further comprising a correction intensity setting unit that sets an intensity to be corrected, so that the intensity of the correction is changed according to the position of the image to be corrected. An image processing apparatus characterized by that. デジタル画像データを入力する工程と、
前記デジタル画像データに対して補正処理を施す工程と、
前記入力された画像及び前記補正処理の施された画像を表示する工程と、
前記表示された画像に基づいて、前記画像に対する補正処理の仕上がりを確認するとともに、前記補正の修整を行う工程と、
前記デジタル画像データから特定の被写体人物を検出する工程と、
前記検出した被写体人物から肌色の情報を設定する工程と、
予め定義された肌色の情報を読み込む工程と、
前記設定された肌色の情報に基づいて、この肌色と類似した肌色の画素を前記デジタル画像データ中から抽出する工程と、
前記抽出した肌色の画素を補正対象領域として領域毎にまとめてパラメータを設定するとともに補正対象領域にのみ補正を掛けるためのマスク情報を設定する工程と、
前記入力されたデジタル画像データと、前記補正処理が施された画像データと、前記マスク情報から出力画像データを作成する工程と、
を備え、前記表示された画像により補正処理の施された画像の仕上がり具合を確認するとともに、前記画像に対する補正の修整を行うことを特徴とする画像処理方法。
Inputting digital image data;
Performing a correction process on the digital image data;
Displaying the input image and the corrected image; and
Checking the finish of the correction process for the image based on the displayed image, and correcting the correction;
Detecting a specific subject person from the digital image data;
Setting skin color information from the detected subject person;
Reading pre-defined skin color information;
Extracting the skin color pixels similar to the skin color from the digital image data based on the set skin color information;
Setting the mask information for applying correction only to the correction target area while setting the parameters collectively for each area as the correction target area with the extracted skin color pixels;
Creating output image data from the input digital image data, the image data subjected to the correction process, and the mask information;
An image processing method comprising: confirming a finish level of an image that has been subjected to correction processing based on the displayed image, and correcting correction of the image.
請求項4に記載の画像処理方法であって、さらに、前記検出した被写体人物から設定された肌色の情報と、前記予め定義された肌色の情報とを比較し、前記検出した被写体人物から設定された肌色の情報が前記予め定義された肌色の情報の所定の範囲内に入るか否か判定する工程を含み、前記検出した被写体人物から設定された肌色の情報が前記予め定義された肌色の情報の所定の範囲内に入らない場合には、前記検出した被写体人物から設定された肌色の情報を廃棄することを特徴とする画像処理方法。   5. The image processing method according to claim 4, further comprising comparing the skin color information set from the detected subject person with the predefined skin color information and setting the detected subject person. Determining whether the skin color information falls within a predetermined range of the predefined skin color information, and the skin color information set from the detected subject person is the predefined skin color information. If not within the predetermined range, the skin color information set from the detected subject person is discarded. 請求項4または5に記載の画像処理方法であって、さらに、補正を掛ける強度を設定する工程を含み、補正処理を掛ける画像の位置に応じて、その補正の強度を変えるようにしたことを特徴とする画像処理方法。   6. The image processing method according to claim 4, further comprising a step of setting a strength to be corrected, wherein the strength of the correction is changed according to the position of the image to be corrected. A featured image processing method.
JP2007085831A 2007-03-28 2007-03-28 Image processing device and method Pending JP2008243059A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007085831A JP2008243059A (en) 2007-03-28 2007-03-28 Image processing device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007085831A JP2008243059A (en) 2007-03-28 2007-03-28 Image processing device and method

Publications (1)

Publication Number Publication Date
JP2008243059A true JP2008243059A (en) 2008-10-09

Family

ID=39914280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007085831A Pending JP2008243059A (en) 2007-03-28 2007-03-28 Image processing device and method

Country Status (1)

Country Link
JP (1) JP2008243059A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100066968A (en) * 2008-12-10 2010-06-18 엘지전자 주식회사 Terminal and method for controlling the same
JP4760999B1 (en) * 2010-10-29 2011-08-31 オムロン株式会社 Image processing apparatus, image processing method, and control program
JP4862955B1 (en) * 2010-10-29 2012-01-25 オムロン株式会社 Image processing apparatus, image processing method, and control program
US8693799B2 (en) 2011-05-25 2014-04-08 Sony Corporation Image processing apparatus for emphasizing details of an image and related apparatus and methods
JP2015023403A (en) * 2013-07-18 2015-02-02 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method and program
EP3068122A1 (en) 2015-03-12 2016-09-14 Omron Corporation Image processing apparatus and image processing method
WO2016151991A1 (en) * 2015-03-26 2016-09-29 パナソニックIpマネジメント株式会社 Image synthesis device and image synthesis method
JP2019070871A (en) * 2017-10-05 2019-05-09 カシオ計算機株式会社 Image processing device, image processing method, and program
US11281924B2 (en) 2019-03-01 2022-03-22 Canon Kabushiki Kaisha Apparatus for adjusting parameter related to defect detection for image processing for image processing, method for information processing, and program

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101587099B1 (en) * 2008-12-10 2016-01-20 엘지전자 주식회사 Terminal and method for controlling the same
KR20100066968A (en) * 2008-12-10 2010-06-18 엘지전자 주식회사 Terminal and method for controlling the same
KR101614193B1 (en) * 2010-10-29 2016-04-20 오므론 가부시키가이샤 Image-processing device, image-processing method, and recording medium for control program
JP4862955B1 (en) * 2010-10-29 2012-01-25 オムロン株式会社 Image processing apparatus, image processing method, and control program
US9679397B2 (en) 2010-10-29 2017-06-13 Omron Corporation Image-processing device, image-processing method, and control program
JP2012095730A (en) * 2010-10-29 2012-05-24 Omron Corp Image-processing device, image-processing method, and control program
KR101455950B1 (en) * 2010-10-29 2014-10-28 오므론 가부시키가이샤 Image-processing device, image-processing method, and recording medium for control program
CN103180873A (en) * 2010-10-29 2013-06-26 欧姆龙株式会社 Image-processing device, image-processing method, and control program
JP2012098808A (en) * 2010-10-29 2012-05-24 Omron Corp Image processing device, image processing method, and control program
WO2012056743A1 (en) * 2010-10-29 2012-05-03 オムロン株式会社 Image-processing device, image-processing method, and control program
WO2012056744A1 (en) * 2010-10-29 2012-05-03 オムロン株式会社 Image-processing device, image-processing method, and control program
JP4760999B1 (en) * 2010-10-29 2011-08-31 オムロン株式会社 Image processing apparatus, image processing method, and control program
US8693799B2 (en) 2011-05-25 2014-04-08 Sony Corporation Image processing apparatus for emphasizing details of an image and related apparatus and methods
JP2015023403A (en) * 2013-07-18 2015-02-02 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method and program
US9858680B2 (en) 2013-07-18 2018-01-02 Canon Kabushiki Kaisha Image processing device and imaging apparatus
US9762877B2 (en) 2015-03-12 2017-09-12 Omron Corporation Image processing apparatus and image processing method
EP3068122A1 (en) 2015-03-12 2016-09-14 Omron Corporation Image processing apparatus and image processing method
JP2016171445A (en) * 2015-03-12 2016-09-23 オムロン株式会社 Image processing apparatus and image processing method
KR101682830B1 (en) 2015-03-12 2016-12-05 오므론 가부시키가이샤 Image processing apparatus and image processing method
KR20160110037A (en) 2015-03-12 2016-09-21 오므론 가부시키가이샤 Image processing apparatus and image processing method
WO2016151991A1 (en) * 2015-03-26 2016-09-29 パナソニックIpマネジメント株式会社 Image synthesis device and image synthesis method
CN107431757A (en) * 2015-03-26 2017-12-01 松下知识产权经营株式会社 Image synthesizer and image combining method
JP2016184864A (en) * 2015-03-26 2016-10-20 パナソニックIpマネジメント株式会社 Image synthesizer and image synthesizing method
US10623633B2 (en) 2015-03-26 2020-04-14 Panasonic Intellectual Property Management Co., Ltd. Image synthesis device and image synthesis method
JP2019070871A (en) * 2017-10-05 2019-05-09 カシオ計算機株式会社 Image processing device, image processing method, and program
JP7087331B2 (en) 2017-10-05 2022-06-21 カシオ計算機株式会社 Image processing equipment, image processing methods and programs
US11281924B2 (en) 2019-03-01 2022-03-22 Canon Kabushiki Kaisha Apparatus for adjusting parameter related to defect detection for image processing for image processing, method for information processing, and program

Similar Documents

Publication Publication Date Title
JP2008243059A (en) Image processing device and method
US9142054B2 (en) System and method for changing hair color in digital images
US8379958B2 (en) Image processing apparatus and image processing method
EP2685419B1 (en) Image processing device, image processing method, and computer-readable medium
KR101733512B1 (en) Virtual experience system based on facial feature and method therefore
US10217244B2 (en) Method and data processing device for computer-assisted hair coloring guidance
EP2615577B1 (en) Image-processing device, image-processing method, and control program
US6389155B2 (en) Image processing apparatus
US9542599B2 (en) Image processing device and image processing method
EP2615576B1 (en) Image-processing device, image-processing method, and control program
US8150205B2 (en) Image processing apparatus, image processing method, program, and data configuration
JP4344925B2 (en) Image processing apparatus, image processing method, and printing system
US20030223622A1 (en) Method and system for enhancing portrait images
JP2004265406A (en) Method and system for improving portrait image processed in batch mode
US20060274936A1 (en) Method, apparatus, and program for image correction
JP5164692B2 (en) Image processing apparatus, image processing method, and program
US10455123B2 (en) Method for increasing the saturation of an image, and corresponding device
JP2010211308A (en) Makeup advice device, the makeup advice method and program
JP2007158824A (en) Image processor, flesh tone adjusting method, and program
JP2007094623A (en) Image correcting method and device, and program
KR101827998B1 (en) Virtual experience system based on facial feature and method therefore
JP2007087123A (en) Image correction method, device and program
US9092889B2 (en) Image processing apparatus, image processing method, and program storage medium
JP2008294969A (en) Video image conversion apparatus, method, and program
JP2005094452A (en) Method, system, and program for processing image