JP2007094623A - Image correcting method and device, and program - Google Patents
Image correcting method and device, and program Download PDFInfo
- Publication number
- JP2007094623A JP2007094623A JP2005281271A JP2005281271A JP2007094623A JP 2007094623 A JP2007094623 A JP 2007094623A JP 2005281271 A JP2005281271 A JP 2005281271A JP 2005281271 A JP2005281271 A JP 2005281271A JP 2007094623 A JP2007094623 A JP 2007094623A
- Authority
- JP
- Japan
- Prior art keywords
- image
- clothing
- subject
- face
- clothes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、デジタル画像における人物の顔や服の明るさや色、階調等を補正する画像補正方法および装置並びにそのためのプログラムに関するものである。 The present invention relates to an image correction method and apparatus for correcting the brightness, color, gradation, and the like of a person's face and clothes in a digital image, and a program therefor.
従来、人物を被写体とするデジタル写真画像において、その人物の顔を抽出して、その顔の明るさ、色、階調等を補正する、いわゆるデジタル覆い焼き処理が提案されている。このデジタル覆い焼き処理において、画像上の顔の位置を特定しないで、画像全体の情報から顔を抽出しようとすると、その背景が複雑な場合には、顔を的確に抽出できない場合がある。 2. Description of the Related Art Conventionally, so-called digital dodging processing has been proposed in which a person's face is extracted from a digital photographic image having a person as a subject, and the brightness, color, gradation, and the like of the face are corrected. In this digital dodging process, if a face is extracted from information of the entire image without specifying the position of the face on the image, the face may not be accurately extracted if the background is complicated.
そこで、ユーザ(操作者)が、対象となる画像を見ながら画像上の顔を含む局所的な領域をマニュアルで指定し、指定された領域の画像の情報に基づいてその指定領域から顔を抽出する方法が提案されている。この方法によれば、画像上の顔のおおよその位置を簡易かつ的確に特定し、顔を抽出する上でノイズとなる背景の要素を極力排除することができ、効率よく、より高い精度で顔を抽出することが可能である。 Therefore, the user (operator) manually designates a local area including the face on the image while looking at the target image, and extracts the face from the designated area based on the image information of the designated area. A method has been proposed. According to this method, it is possible to easily and accurately specify the approximate position of the face on the image, and to eliminate as much background elements as noise when extracting the face as much as possible, efficiently and with higher accuracy. Can be extracted.
ところで、デジタル写真画像を補正する場合、被写体である人物の顔だけでなく、その服装をも補正したい場合がある。例えば、結婚式等のイベントの際に撮影して得られた、ウェディングドレスを着た女性のデジタル写真画像においては、その女性の顔だけでなく、ウェディングドレスの明るさ、色、階調等も補正したいと考える場合が多い。 By the way, when correcting a digital photographic image, there are cases where it is desired to correct not only the face of a person who is a subject but also the clothes. For example, in a digital photo image of a woman wearing a wedding dress obtained by photographing at an event such as a wedding, not only the face of the woman but also the brightness, color, gradation, etc. of the wedding dress Often you want to correct.
このような場合にも、顔の場合と同様に、ユーザが、対象となる画像を見ながら画像上の人物の服装を含む局所的な領域をマニュアルで指定し、指定された領域の画像の情報に基づいてその指定領域から服装を抽出する方法を用いることができる。 Even in such a case, as in the case of the face, the user manually specifies a local area including the clothes of the person on the image while viewing the target image, and information on the image of the specified area A method of extracting clothes from the designated area based on the above can be used.
なお、上記のデジタル覆い焼きに関連する画像処理の方法としては、以下のようなものが開示されている。 The following is disclosed as an image processing method related to the digital dodging.
例えば、特許文献1では、撮影して得られたデジタル画像から被写体を抽出し、その被写体の明度や色に基づいてその被写体に適した背景画像を選択し、その被写体の画像とその背景画像とを合成する方法が開示されており、ここでは、被写体の衣類部分から明度を求めることが行われている。 For example, in Patent Document 1, a subject is extracted from a digital image obtained by photographing, a background image suitable for the subject is selected based on the brightness and color of the subject, the subject image, the background image, In this case, the brightness is obtained from the clothing portion of the subject.
また、例えば、特許文献2では、デジタル画像中に存在する被写体の輪郭を抽出し、抽出された被写体の領域とそれ以外の領域との境界における画像の情報に基づいて、適応的にホワイトバランスの調整や彩度の補正等を行う方法が開示されており、ここでは、被写体の抽出は、顔を構成する顔部品の配置やこれら顔部品の相対的な位置関係に基づいて設定される初期的な境界情報を利用して行われている。
しかしながら、デジタル画像上の人物の顔とその服装の明るさや色等を補正するデジタル覆い焼き方法において、上記のような、ユーザがマニュアルで服装を抽出すべき領域を指定する方法では、服装は顔に比べて複雑な形状である場合が多く、その服装を抽出すべき領域を正確に指定するには、煩雑な作業とユーザのスキルが必要であり、ユーザへの負担が大きいという問題がある。 However, in the digital dodging method for correcting the brightness, color, etc. of a person's face on the digital image and the clothes, as described above, in the method in which the user manually extracts the clothes to be extracted, the clothes are the faces. There are many cases where the shape is complicated, and in order to accurately specify the region from which the clothes are to be extracted, complicated work and skill of the user are required, and there is a problem that the burden on the user is large.
本発明は、上記事情に鑑み、煩雑な作業やユーザのスキルを必要とせずに、デジタル画像上の人物の顔とその服装の領域を的確に抽出し、これらの領域の画像を補正して当該画像の画質を向上させることが可能な画像補正方法および装置並びにそのためのプログラムを提供することを目的とするものである。 In view of the above circumstances, the present invention accurately extracts a person's face and its clothing area on a digital image without requiring complicated work and user skills, and corrects the image of these areas to An object of the present invention is to provide an image correction method and apparatus capable of improving the image quality of an image, and a program therefor.
なお、上記特許文献1の方法は、被写体に適した背景画像を選択し、被写体の画像とその背景画像とを合成しているだけであり、被写体の画像そのものへの画像処理は行われていない。また、衣類部分の情報は、画像上の複数の箇所からのサンプリングによって得ており、衣類部分の抽出は行われていない。したがって、この特許文献1の方法は、後述する本願発明の画像補正方法とは技術的に異なるものである。 Note that the method disclosed in Patent Document 1 merely selects a background image suitable for a subject, combines the subject image and the background image, and does not perform image processing on the subject image itself. . Moreover, the information on the clothing part is obtained by sampling from a plurality of locations on the image, and the clothing part is not extracted. Therefore, the method of Patent Document 1 is technically different from the image correction method of the present invention described later.
また、上記特許文献2の方法は、顔を構成する顔部品の配置やこれら顔部品の相対的な位置関係に基づいて初期的な境界情報を設定しており、種々の服装に対応しているわけではない。したがって、この特許文献2の方法も、後述する本願発明の画像補正方法とは技術的に異なるものである。 Moreover, the method of the above-mentioned patent document 2 sets initial boundary information based on the arrangement of facial parts constituting the face and the relative positional relationship of these facial parts, and is compatible with various clothes. Do not mean. Therefore, the method of Patent Document 2 is also technically different from the image correction method of the present invention described later.
本発明の画像補正方法は、人物である被写体を含む被写体画像において操作者により指定された前記被写体の顔を含む局所領域を、顔抽出対象領域として設定するステップと、前記顔抽出対象領域の画像情報に基づいて、該領域から前記顔を表す顔領域を抽出するステップと、前記被写体の服の種類と相関関係のある少なくとも1つの相関事項の内容を表す相関情報を取得するステップと、前記相関関係に基づいて前記取得された相関情報が表す相関事項の内容と相関が最も高い服の種類を特定するステップと、それぞれが前記種類毎の各服の形状を表す複数の服形状データの中から、前記特定された服の種類に対応した服形状データを取得するステップと、前記被写体画像における前記顔抽出対象領域または前記顔領域の位置により定まる前記被写体の服があるべき位置に、前記取得した服形状データが表す形状を有する領域を、服抽出対象領域として設定するステップと、前記服抽出対象領域の画像情報に基づいて、該領域から前記被写体の服を表す服領域を抽出するステップと、前記被写体画像における前記顔領域および前記服領域の各画像に画像処理を施して該各画像の明るさ、色および階調のうち少なくとも1つを補正するステップとを有することを特徴とする方法である。 The image correction method of the present invention includes a step of setting a local region including a face of the subject specified by an operator in a subject image including a subject that is a person as a face extraction target region, and an image of the face extraction target region. Extracting a face region representing the face from the region based on the information, obtaining correlation information representing the content of at least one correlation item correlated with the type of clothing of the subject, and the correlation The step of identifying the type of clothing having the highest correlation with the content of the correlation item represented by the acquired correlation information based on the relationship, and a plurality of clothing shape data each representing the shape of each clothing for each type , The step of acquiring clothes shape data corresponding to the specified type of clothes and the position of the face extraction target area or the face area in the subject image A region having a shape represented by the acquired clothing shape data at a position where the clothing of the subject should be, as a clothing extraction target region, and based on the image information of the clothing extraction target region, from the region Extracting a clothing region representing clothing of the subject; and performing image processing on each image of the face region and the clothing region in the subject image to obtain at least one of brightness, color, and gradation of each image And a correcting step.
ここで、前記顔抽出対象領域は、矩形であってもよいし、円形であってもよい。 Here, the face extraction target area may be a rectangle or a circle.
前記相関の高低は、例えば、服の種類毎に相関のある各相関事項の内容が対応付けられた相関テーブルを用意し、取得された相関情報が表す相関事項の内容が合致する項目の数に応じて決定することができる。この場合、相関事項あるいはその内容毎に重み付けをし、上記合致した項目毎にその重みを乗じたポイントを算出し、そのポイントの値に応じて決定するようにしてもよい。このようにすれば、取得された相関情報が表す相関事項の種類が少ない場合においても、相関が最も高い服の種類を特定することができる。また、相関の高さが等しく相関が最も高い服の種類が複数存在する場合には、そのリストを表示装置の画面に表示し、操作者がそのリストの中から1つの種類をGUIにより選択するようにしてもよい。 The level of the correlation is, for example, a correlation table in which the contents of each correlated item correlated for each type of clothes are prepared, and the number of items in which the contents of the correlated items represented by the acquired correlation information match. Can be determined accordingly. In this case, each correlation item or its content may be weighted, a point multiplied by the weight for each matched item may be calculated and determined according to the value of that point. In this way, even when there are few types of correlation items represented by the acquired correlation information, the type of clothing having the highest correlation can be specified. In addition, when there are a plurality of clothing types having the same correlation and the highest correlation, the list is displayed on the screen of the display device, and the operator selects one type from the list using the GUI. You may do it.
前記服の形状は、当該服の輪郭を直線や曲線でモデル化した形状であってもよいし、当該服の種類の平均的な形状であってもよい。 The shape of the clothes may be a shape in which the outline of the clothes is modeled by a straight line or a curve, or may be an average shape of the type of clothes.
前記服抽出対象領域の形状は、操作者が微調整できるようにしておくことが好ましい。 It is preferable that the shape of the clothing extraction target region can be finely adjusted by the operator.
本発明の画像補正方法において、前記服領域を抽出するステップは、前記相関テーブルにおいて、前記服の種類を特定するステップにより特定された服の種類に対する相関事項として服の色が対応付けされている場合には、その服の色に近い所定範囲内の色の領域を前記服抽出対象領域の中から抽出するステップとしてもよい。 In the image correction method according to the present invention, the step of extracting the clothing region is associated with a clothing color as a correlation item for the clothing type specified by the step of specifying the clothing type in the correlation table. In this case, a step of extracting a region of a color within a predetermined range close to the color of the clothing from the clothing extraction target region.
本発明の画像補正方法において、前記相関事項は、前記被写体の性別、前記被写体の服の色もしくはテクスチャ、特定の種類の服と同時に使用される関連装着品の有無、前記被写体の髪型の種類、前記被写体の撮影時期、および、前記被写体が撮影されたときの行事のうち少なくとも1つであってもよい。 In the image correction method of the present invention, the correlation items include the sex of the subject, the color or texture of the subject's clothing, the presence or absence of a related wearing device used simultaneously with a specific type of clothing, the type of the hairstyle of the subject, It may be at least one of a shooting time of the subject and an event when the subject is shot.
前記被写体の性別は、例えば、前記顔抽出対象領域の画像の明度、色相、彩度等に基づく従来の画像認識技術により、前記被写体の顔の輪郭、頭髪、肌、髭等を抽出し、その顔の形状や頭髪の長さ、肌の明るさ、髭の有無等を評価することにより、総合的に求めることができる。 The gender of the subject is extracted, for example, by the conventional image recognition technology based on the brightness, hue, saturation, etc. of the image of the face extraction target area, and the subject's face contour, hair, skin, wrinkles, etc. It can be determined comprehensively by evaluating the shape of the face, the length of the hair, the brightness of the skin, the presence or absence of wrinkles, and the like.
前記被写体の服の色もしくはテクスチャは、例えば、前記顔領域の輪郭形状からその顔の傾きおよびその軸方向と顔の縦幅を求め、その顔の中心から顔の傾きの軸方向に沿って下方に顔の縦幅分だけ移動した位置の局所領域を、前記被写体の服の一部があるべき領域と定め、その領域の画像のパターン、明度、色相、彩度等に基づいて、前記被写体の服の色もしくはテクスチャを求めることができる。 The color or texture of the clothing of the subject is, for example, obtained from the contour shape of the face region by determining the face inclination and the axial direction and the vertical length of the face, and downward from the face center along the axial direction of the face inclination. A local area at a position moved by the vertical width of the face is defined as an area where a part of the subject's clothes should be, and based on the image pattern, brightness, hue, saturation, etc. of the area, The color or texture of the clothes can be determined.
前記関連装着品としては、例えば、白無垢と同時に使用される文金高島田や角隠し、ウェディングドレスと同時に使用されるティアラやベール等を考えることができ、これら関連装着品の有無は、例えば、前記顔抽出対象領域や前記顔領域を中心に所定範囲内の領域の画像の情報に基づいて、パターンマッチングの手法により求めることができる。 As the related wearing goods, for example, Bunkin Takashimada and square corner used simultaneously with white solid, tiara and veil used simultaneously with wedding dress, etc., the presence or absence of these related wearing goods, for example, It can be obtained by a pattern matching method based on image information of an area within a predetermined range around the face extraction target area and the face area.
前記被写体の髪型は、例えば、前記顔抽出対象領域の画像の明度、色相、彩度等に基づいて頭髪領域を抽出し、その輪郭形状を評価することにより求めることができる。 The hairstyle of the subject can be obtained, for example, by extracting a hair region based on the brightness, hue, saturation, etc. of the image of the face extraction target region and evaluating its contour shape.
前記被写体の撮影時期は、例えば、前記被写体画像の付帯情報から読み取ることにより求めることができる。 The photographing time of the subject can be obtained by reading from incidental information of the subject image, for example.
前記被写体が撮影されたときの行事は、例えば、予め用意された行事の候補のリストを表示装置の画面に表示し、操作者がその中からGUI(グラフィカル・ユーザ・インタフェース)により選択することにより求めることができる。また、例えば、前記被写体画像の付帯情報から前記撮影時期を読み取り、その撮影時期が、一般的な年間行事、例えば、成人式、七五三、入学式、卒業式等が催される所定の時期と合致するか否かにより求めることができる。 The event when the subject is photographed is displayed by, for example, displaying a list of candidate events prepared in advance on the screen of the display device, and the operator selecting from the list using a GUI (Graphical User Interface). Can be sought. In addition, for example, the shooting time is read from the incidental information of the subject image, and the shooting time matches a predetermined time when a general annual event such as an adult ceremony, Shichigosan, an entrance ceremony, a graduation ceremony, etc. is held. It can be determined by whether or not.
本発明の画像補正方法において、前記服抽出対象領域を設定するステップは、前記服抽出対象領域を、前記顔抽出対象領域または前記顔領域の大きさに応じた大きさに調整して設定するステップであってもよい。 In the image correction method of the present invention, the step of setting the clothing extraction target region is a step of adjusting the clothing extraction target region to a size corresponding to the size of the face extraction target region or the face region. It may be.
また、本発明の画像補正方法において、前記服形状データは、前記被写体の立位と座位のそれぞれに対応した2種類のデータを含むものであり、前記服形状データを取得するステップは、前記顔抽出対象領域または前記顔領域の前記被写体画像に対する相対的な位置の高低に応じて、前記2種類のデータのうちいずれかを選択して取得するステップであってもよい。なお、前記立位とは、前記被写体が立った状態を意味し、前記座位とは、前記被写体が椅子等に座った状態を意味する。 In the image correction method of the present invention, the clothes shape data includes two types of data corresponding to the standing position and the sitting position of the subject, and the step of acquiring the clothes shape data includes the step of acquiring the face shape data. It may be a step of selecting and acquiring one of the two types of data according to the relative position of the extraction target area or the face area with respect to the subject image. Note that the standing position means a state where the subject is standing, and the sitting position means a state where the subject is sitting on a chair or the like.
本発明の画像補正装置は、人物である被写体を含む被写体画像において操作者により指定された前記被写体の顔を含む局所領域を、顔抽出対象領域として設定する顔抽出対象領域設定手段と、前記顔抽出対象領域の画像情報に基づいて、該領域から前記顔を表す顔領域を抽出する顔領域抽出手段と、前記被写体の服の種類と相関関係のある少なくとも1つの相関事項の内容を表す相関情報を取得する相関情報取得手段と、前記相関関係に基づいて前記取得された相関情報が表す相関事項の内容と相関が最も高い服の種類を特定する服種類特定手段と、それぞれが前記種類毎の各服の形状を表す複数の服形状データの中から、前記特定された服の種類に対応した服形状データを取得する服形状データ取得手段と、前記被写体画像における前記顔抽出対象領域または前記顔領域の位置により定まる前記被写体の服があるべき位置に、前記取得した服形状データが表す形状を有する領域を、服抽出対象領域として設定する服抽出対象領域設定手段と、前記服抽出対象領域の画像情報に基づいて、該領域から前記被写体の服を表す服領域を抽出する服領域抽出手段と、前記顔領域および前記服領域の各画像に画像処理を施して該各画像の明るさ、色および階調のうち少なくとも1つを補正する補正手段とを備えたことを特徴とするものである。 The image correction apparatus of the present invention includes a face extraction target region setting unit that sets a local region including a face of the subject specified by an operator in a subject image including a subject that is a person as a face extraction target region, and the face Based on image information of the extraction target area, face area extraction means for extracting the face area representing the face from the area, and correlation information representing the content of at least one correlation item correlated with the type of clothing of the subject A correlation information acquisition unit that acquires the content of the correlation item represented by the acquired correlation information based on the correlation, and a clothing type identification unit that identifies the type of clothing having the highest correlation. Clothing shape data acquisition means for acquiring clothing shape data corresponding to the specified clothing type from among a plurality of clothing shape data representing the shape of each clothing, and the face in the subject image Clothing extraction target region setting means for setting a region having a shape represented by the acquired clothing shape data at a position where the subject's clothing should be determined by the position of the extraction target region or the face region; Based on the image information of the clothes extraction target area, clothes area extracting means for extracting a clothes area representing the clothes of the subject from the area, and performing image processing on each image of the face area and the clothes area Correction means for correcting at least one of brightness, color, and gradation of the image.
本発明の画像補正装置において、前記相関事項は、前記被写体の性別、前記被写体の服の色もしくはテクスチャ、特定の種類の服と同時に使用される関連装着品の有無、前記被写体の髪型の種類、前記被写体の撮影時期、および、前記被写体が撮影されたときの行事のうち少なくとも1つであってもよい。 In the image correction apparatus of the present invention, the correlation items include the gender of the subject, the color or texture of the subject's clothing, the presence or absence of related wearing items used simultaneously with a specific type of clothing, the type of the subject's hairstyle, It may be at least one of a shooting time of the subject and an event when the subject is shot.
本発明の画像補正装置において、前記服抽出対象領域設定手段は、前記服抽出対象領域を、前記顔抽出対象領域または前記顔領域の大きさに応じた大きさに調整して設定するものであってもよい。 In the image correction apparatus of the present invention, the clothes extraction target area setting means adjusts and sets the clothes extraction target area to a size corresponding to the size of the face extraction target area or the face area. May be.
本発明の画像補正装置において、前記服形状データは、前記被写体の立位と座位のそれぞれに対応した2種類のデータを含むものであり、前記服形状データ取得手段は、前記顔抽出対象領域または前記顔領域の前記被写体画像に対する相対的な位置の高低に応じて、前記2種類のデータのうちいずれかを選択して取得するものであってもよい。 In the image correction apparatus of the present invention, the clothing shape data includes two types of data corresponding to each of the standing position and the sitting position of the subject, and the clothing shape data acquisition means includes the face extraction target region or One of the two types of data may be selected and acquired according to the height of the relative position of the face area with respect to the subject image.
本発明のプログラムは、コンピュータを、人物である被写体を含む被写体画像において操作者により指定された前記被写体の顔を含む局所領域を、顔抽出対象領域として設定する顔抽出対象領域設定手段と、前記顔抽出対象領域の画像情報に基づいて、該領域から前記顔を表す顔領域を抽出する顔領域抽出手段と、前記被写体の服の種類と相関関係のある少なくとも1つの相関事項の内容を表す相関情報を取得する相関情報取得手段と、前記相関関係に基づいて前記取得された相関情報が表す相関事項の内容と相関が最も高い服の種類を特定する服種類特定手段と、それぞれが前記種類毎の各服の形状を表す複数の服形状データの中から、前記特定された服の種類に対応した服形状データを取得する服形状データ取得手段と、前記被写体画像における前記顔抽出対象領域または前記顔領域の位置により定まる前記被写体の服があるべき位置に、前記取得した服形状データが表す形状を有する領域を、服抽出対象領域として設定する服抽出対象領域設定手段と、前記服抽出対象領域の画像情報に基づいて、該領域から前記被写体の服を表す服領域を抽出する服領域抽出手段と、前記被写体画像における前記顔領域および前記服領域の各画像に画像処理を施して該各画像の明るさ、色および階調のうち少なくとも1つを補正する補正手段として機能させるためのプログラムである。 The program of the present invention includes a face extraction target region setting unit that sets a local region including a face of the subject specified by an operator in a subject image including a subject that is a person as a face extraction target region; Based on the image information of the face extraction target area, a face area extracting means for extracting a face area representing the face from the area, and a correlation indicating the contents of at least one correlation item correlated with the type of clothing of the subject Correlation information acquisition means for acquiring information, clothes type specifying means for specifying the type of clothes having the highest correlation with the content of the correlation item represented by the acquired correlation information based on the correlation, and each type Clothes shape data acquisition means for acquiring clothes shape data corresponding to the specified type of clothes from a plurality of clothes shape data representing the shape of each of the clothes, and the subject image A clothing extraction target region setting that sets, as a clothing extraction target region, a region having a shape represented by the acquired clothing shape data at a position where the clothing of the subject determined by the face extraction target region or the position of the face region should be Means for extracting a clothing area representing the clothing of the subject from the area based on the image information of the clothing extraction target area, and for each image of the face area and the clothing area in the subject image. This is a program for performing image processing to function as correction means for correcting at least one of the brightness, color, and gradation of each image.
本発明のプログラムにおいて、前記相関事項は、前記被写体の性別、前記被写体の服の色もしくはテクスチャ、特定の種類の服と同時に使用される関連装着品の有無、前記被写体の髪型の種類、前記被写体の撮影時期、および、前記被写体が撮影されたときの行事のうち少なくとも1つであってもよい。 In the program of the present invention, the correlation items include the gender of the subject, the color or texture of the subject's clothing, the presence or absence of related wearing items used simultaneously with a specific type of clothing, the type of the subject's hairstyle, the subject And at least one of the events when the subject is photographed.
本発明のプログラムにおいて、前記服抽出対象領域設定手段は、前記服抽出対象領域を、前記顔抽出対象領域または前記顔領域の大きさに応じた大きさに調整して設定するものであってもよい。 In the program of the present invention, the clothes extraction target area setting means may adjust and set the clothes extraction target area to a size corresponding to the size of the face extraction target area or the face area. Good.
本発明のプログラムにおいて、前記服形状データは、前記被写体の立位と座位のそれぞれに対応した2種類のデータを含むものであり、前記服形状データ取得手段は、前記顔抽出対象領域または前記顔領域の前記被写体画像に対する相対的な位置の高低に応じて、前記2種類のデータのうちいずれかを選択して取得するものであってもよい。 In the program of the present invention, the clothing shape data includes two types of data corresponding to each of the standing position and the sitting position of the subject, and the clothing shape data acquisition unit is configured to detect the face extraction target region or the face. One of the two types of data may be selected and acquired according to the relative position of the region with respect to the subject image.
本発明の画像補正方法および装置並びにそのためのプログラムによれば、被写体画像上で操作者によって指定された顔抽出対象領域から顔領域を抽出するとともに、被写体の服の種類と相関のある相関事項の内容を表す相関情報を取得し、この内容と相関が最も高い服の種類を求め、その服の形状で模られた服抽出対象領域を、被写体の顔の位置を基準として定められる被写体の服があるべき位置に設定し、その服抽出対象領域から服領域を抽出し、顔領域と服領域の各画像の明るさ、色、階調のうち少なくとも1つを補正するので、相関情報を利用することにより、実際の被写体の服の種類を特定し、服領域を抽出する対象となる服抽出対象領域を、適正な位置に適当な形状で設定することができ、煩雑な作業や操作者のスキルを必要とせずに、デジタル画像上の人物の顔とその服装の領域を的確に抽出し、これらの領域の画像を補正して当該画像の画質を向上させることが可能となる。 According to the image correction method and apparatus and the program therefor according to the present invention, the face area is extracted from the face extraction target area designated by the operator on the subject image, and the correlation items correlated with the type of clothes of the subject. Correlation information representing the content is obtained, the type of clothing having the highest correlation with the content is obtained, and the clothing extraction target area imitated by the shape of the clothing is determined based on the position of the subject's face. Correlation information is used because it is set at a desired position, a clothing region is extracted from the clothing extraction target region, and at least one of the brightness, color, and gradation of each image of the face region and the clothing region is corrected. Therefore, it is possible to identify the type of clothes of the actual subject and set the clothes extraction target area to be extracted from the clothes area in an appropriate shape with an appropriate shape, which requires complicated work and operator skills. Need To, the face of the person on the digital image region of the clothing was precisely extracted, it is possible to improve the image quality of the image by correcting the image in these areas.
以下、図面を参照して本発明の実施の形態について説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、本発明の実施形態である画像補正装置の構成を示すブロック図である。この画像補正装置は、アナログ写真技術におけるいわゆる覆い焼きと同じ効果をデジタル画像上で得るための装置であり、例えば、画像上で暗く表現されている顔や服を部分的に明るく補正するものである。 FIG. 1 is a block diagram showing a configuration of an image correction apparatus according to an embodiment of the present invention. This image correction device is a device for obtaining the same effect on a digital image as a so-called dodging method in analog photographic technology. For example, the image correction device partially corrects a face and clothes that are darkly expressed on an image. is there.
画像補正装置1は、図1に示すように、オリジナル画像保存部11、画像選択部12、顔抽出対象領域設定部21、顔領域抽出部22、相関情報取得部31、服種類特定部32、服形状データ取得部33、相関データベース34、服抽出対象領域設定部35、服領域抽出部36、補正部40、出力制御部50、表示装置61、補正画像保存装置62、印刷装置63、入力操作部70を備えている。また、補正部40は、マスク作成部41、補正パラメータ設定部42、全体補正部43、画像合成部44により構成されている。 As shown in FIG. 1, the image correction apparatus 1 includes an original image storage unit 11, an image selection unit 12, a face extraction target region setting unit 21, a face region extraction unit 22, a correlation information acquisition unit 31, a clothing type identification unit 32, Clothing shape data acquisition unit 33, correlation database 34, clothing extraction target region setting unit 35, clothing region extraction unit 36, correction unit 40, output control unit 50, display device 61, corrected image storage device 62, printing device 63, input operation Part 70 is provided. The correction unit 40 includes a mask creation unit 41, a correction parameter setting unit 42, an overall correction unit 43, and an image composition unit 44.
オリジナル画像保存部11は、人物である被写体を含む複数のオリジナル画像をデジタルデータとして保存するものである。このオリジナル画像保存部11としては、例えば、ハードディスク、CD−ROM装置、DVD−ROM装置等を考えることができる。ここで、オリジナル画像とは、画質を変更する処理が施されていない画像のことである。 The original image storage unit 11 stores a plurality of original images including a subject that is a person as digital data. As the original image storage unit 11, for example, a hard disk, a CD-ROM device, a DVD-ROM device, or the like can be considered. Here, the original image is an image that has not been subjected to a process for changing the image quality.
画像選択部12は、オリジナル画像保存部11に保存されている複数のオリジナル画像の中から補正の対象となるオリジナル画像を補正対象画像(被写体画像)Sとして選択するものである。本実施形態においては、ユーザ(操作者)が、表示装置61の画面に表示された、オリジナル画像の概要を示すサムネイル画像の中からGUI(グラフィカル・ユーザ・インターフェース)で特定の画像を指定することにより、補正の対象となるオリジナル画像を選択する。 The image selection unit 12 selects an original image as a correction target image (subject image) S from among a plurality of original images stored in the original image storage unit 11. In the present embodiment, the user (operator) designates a specific image using a GUI (graphical user interface) from among thumbnail images that are displayed on the screen of the display device 61 and shows an outline of the original image. Thus, the original image to be corrected is selected.
顔抽出対象領域設定部21は、補正対象画像Sにおいてユーザにより指定された被写体の顔を含む局所領域を、顔抽出対象領域Rxfとして設定するものである。本実施形態においては、ユーザが、表示装置61の画面に表示された補正対象画像Sにおいて、特定の領域をGUIで指定することにより、顔抽出対象領域Rxfを設定する。なお、この顔抽出対象領域Rxfは、矩形であってもよいし円形であってもよい。 The face extraction target area setting unit 21 sets a local area including the face of the subject specified by the user in the correction target image S as the face extraction target area Rxf. In the present embodiment, the user sets a face extraction target region Rxf by designating a specific region with the GUI in the correction target image S displayed on the screen of the display device 61. The face extraction target area Rxf may be rectangular or circular.
顔領域抽出部22は、顔抽出対象領域設定部21により設定された顔抽出対象領域Rxfの画像情報、例えば、この画像の明るさまたは色の情報に基づいて、顔抽出対象領域Rxfから被写体の顔を表す顔領域Rfを抽出するものである。なお、被写体の顔領域を抽出する方法としては、例えば、特願2005−162836により提案されているような、指定領域内で肌の部分である蓋然性が高い小さな領域を肌の種として求め、その肌の種を出発点として肌らしい領域を所定の指標に基づいて成長させてゆき、最終的に肌らしき領域のかたまりを抽出するといった方法を用いることができる。また、例えば、指定領域の画像を構成する画素の明度、色相、彩度等を求め、指定領域の中からこれらの色の指標が肌の色の特徴と合致する画素からなる画像領域を、単純に、人物の肌の部分を表す領域として抽出する方法を用いることもできる。 The face area extraction unit 22 extracts the subject from the face extraction target area Rxf based on the image information of the face extraction target area Rxf set by the face extraction target area setting unit 21, for example, the brightness or color information of the image. A face region Rf representing a face is extracted. In addition, as a method of extracting the face area of the subject, for example, a small area having a high probability of being a skin part in the designated area as proposed in Japanese Patent Application No. 2005-162836 is obtained as a skin seed. It is possible to use a method in which a skin-like region is grown based on a predetermined index starting from the skin type, and finally a cluster of skin-like regions is extracted. Further, for example, the brightness, hue, saturation, etc. of the pixels constituting the image of the designated area are obtained, and an image area composed of pixels in which the index of these colors matches the characteristics of the skin color is simply selected from the designated area. In addition, a method of extracting as a region representing a person's skin part can also be used.
相関情報取得部31は、被写体の服の種類と相関関係のある少なくとも1つの相関事項の内容を表す相関情報Ccを取得するものである。ここで、相関事項としては、例えば、被写体の性別、被写体の服の色もしくはテクスチャ、特定の種類の服と同時に使用される関連装着品の有無、被写体の髪型の種類、被写体の撮影時期、被写体が撮影されたときの行事等を考えることができる。 The correlation information acquisition unit 31 acquires correlation information Cc representing the content of at least one correlation item correlated with the type of clothing of the subject. Here, the correlation items include, for example, the gender of the subject, the color or texture of the subject's clothing, the presence or absence of related accessories used at the same time as the specific type of clothing, the type of the subject's hairstyle, the shooting time of the subject, the subject You can think about the event when was taken.
ここで、被写体の性別は、例えば、顔抽出対象領域Rxfの画像の明度、色相、彩度等に基づく従来の画像認識技術により、被写体の顔の輪郭、頭髪、肌、髭等を抽出し、その顔の形状や頭髪の長さ、肌の明るさ、髭の有無等を評価することにより、総合的に求めることができる。 Here, the sex of the subject is extracted, for example, by the conventional image recognition technology based on the brightness, hue, saturation, etc. of the image of the face extraction target region Rxf, and the subject's face contour, hair, skin, wrinkles, etc. It can be determined comprehensively by evaluating the shape of the face, the length of the hair, the brightness of the skin, the presence or absence of wrinkles, and the like.
また、被写体の服の色もしくはテクスチャは、例えば、顔領域Rfの輪郭形状からその顔の傾きおよびその軸方向と顔の縦幅を求め、その顔の中心から顔の傾きの軸方向に沿って下方に顔の縦幅の1倍〜1.5倍分だけ移動した位置の局所領域を、被写体の服の一部があるべき領域と定め、その領域の画像のパターン、明度、色相、彩度等に基づいて、被写体の服の色もしくはテクスチャを求めることができる。 The color or texture of the clothing of the subject is obtained, for example, from the contour shape of the face region Rf, the inclination of the face, the axial direction and the vertical width of the face, and from the center of the face along the axial direction of the face inclination. A local area at a position moved downward by 1 to 1.5 times the vertical width of the face is defined as an area where a part of the subject's clothes should be, and the pattern, brightness, hue, and saturation of the image in that area Based on the above, the color or texture of the clothing of the subject can be obtained.
図2は、和服を着た女性の姿を表した図である。被写体の服は、その種類によって形状が異なるが、ほとんどの服は、その一部が被写体の胸部上に存在しており、また、その服の代表的な色は、その胸部上の服の一部の色と合致する傾向がある。したがって、抽出された顔領域Rfの輪郭形状から丸みを帯びたあごのラインを検出することにより被写体の顔の傾きを求め、そこから、その顔の傾きの軸方向と顔の縦幅を求め、その顔の中心から顔の傾きの軸方向に沿って下方に顔の縦幅の1.5倍分だけ移動した位置を中心に、縦幅および横幅が顔領域Rfと同じ矩形領域を、被写体の服の一部があるべき領域と定め、この領域(服情報検出領域)Rdの画像の明度、色相に基づいて、被写体の服の色を求めることができる。 FIG. 2 is a view showing a woman wearing Japanese clothes. The shape of the clothing of the subject varies depending on the type, but most clothing is partly on the subject's chest, and the typical color of the clothing is one of the clothing on the chest. There is a tendency to match the color of the part. Accordingly, by detecting a rounded chin line from the contour shape of the extracted face region Rf, the inclination of the face of the subject is obtained, and from this, the axial direction of the face inclination and the vertical width of the face are obtained, A rectangular area having the same vertical width and horizontal width as the face area Rf around the position moved by 1.5 times the vertical width of the face downward along the axial direction of the face inclination from the center of the face. It is possible to determine the color of the subject's clothing based on the brightness and hue of the image in this region (clothing information detection region) Rd.
また、上記の関連装着品としては、例えば、白無垢と同時に使用される文金高島田や角隠し、ウェディングドレスと同時に使用されるティアラやベール等を考えることができ、これら関連装着品の有無は、例えば、顔抽出対象領域Rxfや顔領域Rfを中心に所定範囲内の領域の画像の情報に基づいて、色判定とパターンマッチングの手法により求めることができる。 In addition, as the above-mentioned related wearing goods, for example, you can think of Bunkin Takashimada and corner concealment used simultaneously with white solid, tiara and veil used simultaneously with wedding dress, etc. For example, it can be obtained by color determination and pattern matching based on image information of a region within a predetermined range centering on the face extraction target region Rxf and the face region Rf.
図3は、被写体の頭上に文金高島田が装着された女性の姿を表した図である。文金高島田は、略白色で水平方向に平らであるという特徴的な形状を有している。したがって、抽出された顔領域Rfの上方に隣接する部分領域、例えば、顔領域Rfの横幅の3倍、縦幅の2倍程度の領域内で、このような形状と色のパターンをパターンマッチングにより探索することにより、文金高島田を表すオブジェクト領域Rjを検出し、分身高島田の装着の有無を判定することができる。 FIG. 3 is a diagram showing a woman wearing Bunkin Takashimada on the subject's head. Bunkin Takashimada has a characteristic shape that is almost white and flat in the horizontal direction. Therefore, such a shape and color pattern is subjected to pattern matching in a partial region adjacent to the upper side of the extracted face region Rf, for example, in a region about three times the width of the face region Rf and twice the height. By searching, it is possible to detect the object region Rj representing Bunkin Takashimada and determine whether or not the alternate Takashimada is attached.
また、被写体の髪型は、例えば、顔抽出対象領域Rxfの画像の明度、色相、彩度等に基づいて頭髪領域を抽出し、その輪郭形状を評価することにより求めることができる。 In addition, the hairstyle of the subject can be obtained by, for example, extracting a hair region based on the brightness, hue, saturation, and the like of the image of the face extraction target region Rxf and evaluating the contour shape.
また、被写体の撮影時期は、例えば、補正対象画像Sの付帯情報から読み取ることにより求めることができる。 Further, the photographing time of the subject can be obtained by reading from the supplementary information of the correction target image S, for example.
また、被写体が撮影されたときの行事は、例えば、予め用意された行事の候補のリストを表示装置の画面に表示し、ユーザがその中からGUIにより選択することにより求めることができる。また、例えば、補正対象画像Sの付帯情報から撮影時期を読み取り、その撮影時期が、一般的な年間行事、例えば、成人式、七五三、入学式、卒業式等が催される所定の時期と合致するか否かにより求めることができる。また、撮影予約情報を用いて行事を推定することもできる。 The event when the subject is photographed can be obtained, for example, by displaying a list of event candidates prepared in advance on the screen of the display device, and the user selecting from the list using the GUI. Further, for example, the shooting time is read from the supplementary information of the correction target image S, and the shooting time matches a predetermined time at which a general annual event such as an adult ceremony, Shichigosan, entrance ceremony, graduation ceremony, etc. is held. It can be determined by whether or not. Moreover, an event can also be estimated using imaging reservation information.
服種類特定部32は、被写体の服の種類と相関事項との間の相関関係に基づいて、相関情報取得部31により取得された相関情報Ccが表す相関事項の内容と相関が最も高い服の種類を、被写体の服の種類Vcとして特定するものである。ここで、その相関の高低は、例えば、服の種類毎に相関のある各相関事項の内容が対応付けられた相関テーブルTを用意し、服の種類毎に、取得された相関情報Ccが表す相関事項の内容と合致する項目の数を求め、この項目の数に応じて決定することができる。この場合、相関事項あるいはその内容毎に重み付けをし、上記合致した項目毎にその重みを乗じたポイントを算出し、そのポイントの値に応じて決定するようにしてもよい。このようにすれば、取得された相関情報が表す相関事項の種類が少ない場合においても、相関が最も高い服の種類を特定することができる。また、相関の高さが等しく相関が最も高い服の種類が複数存在する場合には、そのリストを表示装置の画面に表示し、ユーザがそのリストの中から1つの種類をGUIにより選択するようにしてもよい。本実施形態においては、相関テーブルTが相関データベース34に予め保存されており、服種類特定部32は、相関データベース34からその相関テーブルTを読み取り、相関テーブルTにおいて相関情報Ccが表す相関事項の内容と合致する項目の数が最も多い服の種類を求め、その服の種類を被写体の服の種類Vcとして特定する。 The clothing type identification unit 32 is based on the correlation between the clothing type of the subject and the correlation item, and the content of the correlation item represented by the correlation information Cc acquired by the correlation information acquisition unit 31 and the clothing item having the highest correlation. The type is specified as the type of clothing Vc of the subject. Here, the level of the correlation is represented by, for example, a correlation table T in which the contents of each correlated item correlated with each clothing type are associated, and the acquired correlation information Cc for each clothing type. The number of items that match the contents of the correlation items can be obtained and determined according to the number of items. In this case, each correlation item or its content may be weighted, a point multiplied by the weight for each matched item may be calculated and determined according to the value of that point. In this way, even when there are few types of correlation items represented by the acquired correlation information, the type of clothing having the highest correlation can be specified. If there are a plurality of clothing types having the same correlation and the highest correlation, the list is displayed on the screen of the display device, and the user selects one type from the list by using the GUI. It may be. In the present embodiment, the correlation table T is stored in the correlation database 34 in advance, and the clothing type identification unit 32 reads the correlation table T from the correlation database 34, and the correlation items represented by the correlation information Cc in the correlation table T are displayed. The type of clothing having the largest number of items matching the content is obtained, and the type of clothing is specified as the type of clothing Vc of the subject.
図4は、相関テーブルTの一例を示したものである。この相関テーブルTでは、服装の種類と、相関事項である、被写体の性別(性別)、被写体の服の色もしくはテクスチャ(服の色/テクスチャ)、特定の種類の服と同時に使用される関連装着品(関連オブジェクト)、被写体の撮影時期(撮影時期)、被写体が撮影されたときの行事(イベント)等の内容とが対応付けられている。 FIG. 4 shows an example of the correlation table T. In this correlation table T, the type of clothing and the correlation items, such as the subject's sex (gender), the color or texture of the subject's clothing (cloth color / texture), and the related wearing used simultaneously with the specific type of clothing. Items (related objects), shooting time of the subject (shooting time), contents such as an event (event) when the subject is shot are associated with each other.
服形状データ取得部33は、それぞれが上記の種類毎の各服の形状を表す複数の服形状データの中から、服種類特定部32により特定された服の種類Vcに対応した服形状データDcを、取得するものである。本実施形態においては、これら複数の服形状データが相関データベース34に予め保存されており、服形状データ取得部33は、相関データベース34に保存されているこれら複数の服形状データの中から服形状データDcを読み取って取得する。なお、服形状データは、被写体の立位と座位のそれぞれに対応した2種類のデータを含むものであり、服形状データ取得部33は、顔抽出対象領域Rxfまたは顔領域Rfの補正対象画像Sに対する相対的な位置の高低に応じて、上記の被写体の立位と座位のそれぞれに対応した2種類のデータのうちいずれかを選択して取得する。また、服形状データが表す服の形状は、服の輪郭を直線や曲線でモデル化した形状であってもよいし、服の種類の平均的な形状であってもよいが、本実施形態においては、複数の直線を結んで形成されるモデル化された形状とする。 The clothing shape data acquisition unit 33 selects the clothing shape data Dc corresponding to the clothing type Vc specified by the clothing type specifying unit 32 from the plurality of clothing shape data, each representing the shape of each clothing for each type. Is to acquire. In the present embodiment, the plurality of clothing shape data are stored in the correlation database 34 in advance, and the clothing shape data acquisition unit 33 selects the clothing shape from the plurality of clothing shape data stored in the correlation database 34. Data Dc is read and acquired. The clothing shape data includes two types of data corresponding to the standing position and the sitting position of the subject, and the clothing shape data acquisition unit 33 corrects the face extraction target region Rxf or the correction target image S of the face region Rf. Depending on the relative height of the position, one of the two types of data corresponding to the standing position and the sitting position of the subject is selected and acquired. In addition, the shape of the clothes represented by the clothes shape data may be a shape obtained by modeling the outline of the clothes with a straight line or a curve, or may be an average shape of the type of clothes. Is a modeled shape formed by connecting a plurality of straight lines.
相関データベース34は、上述の通り、相関テーブルTや複数の服形状データを保存するものである。この相関データベース34としては、例えば、ハードディスク、CD−ROM装置、DVD−ROM装置等を考えることができる。 As described above, the correlation database 34 stores the correlation table T and a plurality of clothing shape data. As the correlation database 34, for example, a hard disk, a CD-ROM device, a DVD-ROM device, or the like can be considered.
服抽出対象領域設定部35は、補正対象画像Sにおける顔抽出対象領域Rxfまたは顔領域Rfの位置により定まる被写体の服があるべき位置に、服形状データ取得部33により取得された服形状データVcが表す形状を有する領域を、服抽出対象領域Rxcとして設定するものである。この服抽出対象領域設定部35は、服抽出対象領域Rxcを、顔抽出対象領域Rxfまたは顔領域Rfの大きさに応じた大きさに調整して設定する。なお、ここで設定される服抽出対象領域Rxcの形状は、初期設定としての形状であり、ユーザはこの形状をGUIにより微調整をすることができる。 The clothing extraction target region setting unit 35 is the clothing shape data Vc acquired by the clothing shape data acquisition unit 33 at the position where the subject's clothing should be determined by the position of the face extraction target region Rxf or the face region Rf in the correction target image S. A region having a shape represented by is set as a clothing extraction target region Rxc. The clothing extraction target area setting unit 35 adjusts and sets the clothing extraction target area Rxc to a size corresponding to the size of the face extraction target area Rxf or the face area Rf. Note that the shape of the clothing extraction target region Rxc set here is a shape as an initial setting, and the user can fine-tune this shape using the GUI.
服領域抽出部36は、服抽出対象領域Rxcの画像情報、例えば、この画像の明度、色相、彩度等に基づいて、服抽出対象領域Rxcから被写体の服を表す服領域Rcを抽出するものである。なお、相関テーブルTにおいて、服種類特定部32により特定された服の種類に対する相関事項として服の色が対応付けされている場合には、服領域抽出部36は、その服の色に近い所定範囲内の色の領域を服抽出対象領域Rxcの中から抽出するようにしてもよい。 The clothing region extraction unit 36 extracts a clothing region Rc representing clothing of the subject from the clothing extraction target region Rxc based on image information of the clothing extraction target region Rxc, for example, the brightness, hue, saturation, and the like of the image. It is. In the correlation table T, when the clothing color is associated as the correlation item for the clothing type identified by the clothing type identifying unit 32, the clothing region extracting unit 36 is a predetermined value close to the clothing color. A color region within the range may be extracted from the clothing extraction target region Rxc.
補正部40は、補正対象画像Sにおける顔領域Rfおよび服領域Rcの各画像に画像処理を施してこれらの各画像の明るさまたは色を補正するものであり、上述の通り、マスク作成部41、補正パラメータ設定部42、全体補正部43、画像合成部44により構成される。 The correction unit 40 performs image processing on each image of the face region Rf and the clothing region Rc in the correction target image S to correct the brightness or color of each image. As described above, the mask creation unit 41 , A correction parameter setting unit 42, an overall correction unit 43, and an image composition unit 44.
マスク作成部41は、補正対象画像S上で抽出された顔領域Rf、服領域Rc等の各補正対象領域にのみ補正が及ぶように、特定の補正対象領域以外の領域をマスクする役目を果たすマスクデータMf,Mcを作成するものである。マスクデータMf,Mcは、補正対象領域毎に作成される個々のマスクデータを表しており、マスクデータMfは顔領域Rfにのみ補正が及ぶよう規定されたもの、マスクデータMcは服領域Rcにのみ補正が及ぶように規定されたものである。マスクデータMfは、具体的には、顔領域Rfに対して施されるべき補正が施される前の補正前画像と、顔領域Rfに対して施すべき補正がその補正前画像の画像全体に施された全体補正画像とを、互いに対応する画素同士を合わせて合成したときに、顔領域Rfのみが補正された部分補正画像が得られるように、画素単位の合成比率を規定するものである。すなわち、マスクデータMfが規定する、補正前画像と全体補正画像との合成比率(補正前の画像:補正後の画像)は、通常、補正対象領域である顔領域Rfに相当する画素においては0:1、顔領域Rf外に相当する画素においては1:0となる。ただし、この補正対象領域の内外のつなぎ目を滑らかにするために、補正対象領域の境界付近において、その補正対象領域の内外方向に沿って、その合成比率を1:0から0:1に徐々に変化させるように規定してもよい。マスクデータMcは、マスクデータMfと同様に、服領域Rcに対して施されるべき補正が施される前の補正前画像と、服領域Rcに対して施すべき補正がその補正前画像の画像全体に施された全体補正画像とを、互いに対応する画素同士を合わせて合成したときに、服領域Rcのみが補正された部分補正画像が得られるように、画素単位の合成比率を規定するものである。なお、マスクデータは、基本的に、顔領域Rfと服領域Rcに対して1つずつ作成されるが、これら顔領域Rfと服領域Rcに同じ補正(画像処理)を施す場合には、これらの領域を1つの領域群Rfcにまとめ、これに対して1つのマスクデータMfcを作成するようにしてもよい。 The mask creating unit 41 serves to mask areas other than the specific correction target area so that the correction covers only the correction target areas such as the face area Rf and the clothing area Rc extracted on the correction target image S. Mask data Mf and Mc are created. The mask data Mf and Mc represent individual mask data created for each correction target area. The mask data Mf is specified to be corrected only on the face area Rf, and the mask data Mc is applied to the clothes area Rc. It is specified so that only the correction can be made. Specifically, the mask data Mf includes the pre-correction image before the correction to be performed on the face region Rf and the correction image to be applied to the face region Rf on the entire image before the correction. The combination ratio in units of pixels is defined so that a partial correction image in which only the face region Rf is corrected can be obtained when the applied overall correction image is combined with pixels corresponding to each other. . That is, the composition ratio (the image before correction: the image after correction) of the pre-correction image and the entire correction image defined by the mask data Mf is normally 0 in the pixel corresponding to the face region Rf that is the correction target region. 1 and 1: 0 for pixels corresponding to outside the face region Rf. However, in order to smooth the inner and outer joints of the correction target area, the composition ratio is gradually increased from 1: 0 to 0: 1 along the inner and outer directions of the correction target area near the boundary of the correction target area. You may prescribe | regulate so that it may change. Like the mask data Mf, the mask data Mc is an image of a pre-correction image before the correction to be applied to the clothing region Rc and an image of the image before the correction to be applied to the clothing region Rc. Defines the composition ratio in units of pixels so that a partial correction image in which only the clothing region Rc is corrected can be obtained when the entire correction image applied to the whole is combined and the corresponding pixels are combined. It is. The mask data is basically created for each of the face region Rf and the clothing region Rc. However, when the same correction (image processing) is applied to the face region Rf and the clothing region Rc, These areas may be combined into one area group Rfc, and one mask data Mfc may be created for this area group Rfc.
補正パラメータ設定部42は、各補正対象領域、すなわち、顔領域Rfと服領域Rcの各画像に施す明るさや色等を補正するための画像処理の条件を規定するパラメータPf,Pc(以下、補正パラメータという)を設定するものである。補正パラメータは、ユーザの入力に応じて設定することもできるし、自動演算によって求めたパラメータを設定することもできる。ここでは、補正パラメータは、画像の明度、色相、彩度の補正量(シフト量)を定めるものであり、例えば、画像を構成する各画素の画素値に加算もしくは減算する値を定めるものである。この補正パラメータ設定部42は、補正パラメータを何度でも更新して設定し直すことができる。つまり、補正対象画像Sに現時点での補正パラメータによって規定された画像処理を施して得られた画像を、出力制御部50の制御により表示装置61の画面に表示させ、ユーザがそれを観察して補正の効果を確認し、所望の補正パラメータを探索することができるようになっている。 The correction parameter setting unit 42 defines parameters Pf and Pc (hereinafter referred to as correction) that define image processing conditions for correcting the brightness, color, and the like applied to each correction target area, that is, each image of the face area Rf and the clothes area Rc. Parameter). The correction parameter can be set according to a user input, or a parameter obtained by automatic calculation can be set. Here, the correction parameter determines the correction amount (shift amount) of the brightness, hue, and saturation of the image. For example, the correction parameter determines a value to be added to or subtracted from the pixel value of each pixel constituting the image. . The correction parameter setting unit 42 can update and set the correction parameter any number of times. That is, an image obtained by performing image processing defined by the correction parameters at the current time on the correction target image S is displayed on the screen of the display device 61 under the control of the output control unit 50, and the user observes it. The effect of correction can be confirmed and a desired correction parameter can be searched.
この補正パラメータ設定部42は、補正対象領域である顔領域Rf、服領域Rcが抽出され、それに対応するマスクデータMf,Mcが作成されると、その補正対象領域の補正後の目標となる予め決められた所定の明度とその補正対象領域における明度の平均値もしくは中間値との差分に基づいて、その補正対象領域を補正する際の補正量として適正と思われる補正量を算出し、これを初期値として設定する。その後、全体補正部43および画像合成部44により生成された、これら補正対象領域のみが補正された後述の部分補正画像Sp_2は、出力制御部50の制御を受けて、表示装置61の画面に表示されるが、ユーザがその画面を見ながらさらに補正量を微調整できるように、補正パラメータ設定部42は、ユーザによって入力された補正量を微調整する情報に基づいてその補正パラメータを変更する機能を有する。そして、変更された補正パラメータで再び画像が補正され、その補正された画像が表示装置61の画面に表示されることとなる。なお、補正できる画像上の成分は、特に限定しなくてもよいが、ここでは、補正に係る操作性をよくするため、色相、彩度および明度のうち少なくともいずれかに係る数種類の成分として予め決められており、ユーザは、それらの中からいずれかの成分を選択してその成分を増減することができる。例えば、補正可能な画像上の成分を、シアンC、マゼンタM、エイローYの3色の強度と明度Dの4種類に定め、表示装置61の画面には、出力制御部50の制御を受けて、これらの成分の項目が表示されるとともに、それぞれの成分の項目の横にその成分の補正レベルを段階的に表示するカウンタと、その補正レベルを1段階ずつ増減できる増減ボタンが表示され、ユーザは、これら各成分の補正レベルをGUIによって調整する。 The correction parameter setting unit 42 extracts a face region Rf and a clothing region Rc, which are correction target regions, and creates mask data Mf and Mc corresponding to the extracted regions, in advance, which is a target after correction of the correction target region. Based on the difference between the determined predetermined brightness and the average value or intermediate value of the brightness in the correction target area, a correction amount that is considered appropriate as a correction amount when correcting the correction target area is calculated. Set as initial value. Thereafter, a partial corrected image Sp_2, which is generated by the overall correction unit 43 and the image combining unit 44 and corrected only for these correction target areas, is displayed on the screen of the display device 61 under the control of the output control unit 50. However, the correction parameter setting unit 42 has a function of changing the correction parameter based on information for fine adjustment of the correction amount input by the user so that the user can further finely adjust the correction amount while viewing the screen. Have Then, the image is corrected again with the changed correction parameter, and the corrected image is displayed on the screen of the display device 61. Note that the components on the image that can be corrected are not particularly limited, but here, in order to improve the operability related to the correction, as components of at least one of hue, saturation, and lightness, several components are previously stored. The user can select any of the components and increase / decrease the component. For example, the components on the image that can be corrected are determined as four types of intensity of three colors of cyan C, magenta M, and aero Y and brightness D, and the screen of the display device 61 is controlled by the output control unit 50. These component items are displayed, a counter for displaying the correction level of the component stepwise next to each component item, and an increase / decrease button for increasing / decreasing the correction level one step at a time. Adjusts the correction level of each of these components using a GUI.
なお、補正パラメータは、通常、補正対象領域毎に1つずつ設定されるが、複数の補正対象領域を1つの領域群としてまとめ、すなわち、複数の補正対象領域の各々にそれぞれ対応した複数のマスクデータを1つのマスクデータにまとめ、これに対して1つの補正パラメータを設定するようにすることもできる。 The correction parameters are usually set one by one for each correction target area, but a plurality of correction target areas are grouped into one area group, that is, a plurality of masks respectively corresponding to each of the plurality of correction target areas. It is also possible to combine the data into one mask data and set one correction parameter for this.
全体補正部43は、補正対象画像Sの画像全体に対して、補正パラメータPfおよびPcのうちいずれか一方で規定される画像処理を施して、この画像の画像全体の明るさや色等が補正された第1の全体補正画像Sz_1を得るものである。また、画像合成部44により、顔領域Rfおよび服領域Rcのうちいずれか一方の画像が補正された第1の部分補正画像Sp_1が既に得られている場合には、この第1の部分補正画像Sp_1の画像全体に対して、まだ補正に使われていない方の補正パラメータで規定される画像処理を施して、この画像の画像全体の明るさや色等が補正された第2の全体補正画像Sz_2を得るものである。これら第1および第2の全体補正画像Sz_1,Sz_2は、画像合成部44に送られる。 The overall correction unit 43 performs image processing defined by one of the correction parameters Pf and Pc on the entire image of the correction target image S to correct the brightness, color, etc. of the entire image of this image. The first overall corrected image Sz_1 is obtained. In addition, when the first partial correction image Sp_1 in which one of the face region Rf and the clothing region Rc is corrected has already been obtained by the image composition unit 44, the first partial correction image. The entire image of Sp_1 is subjected to image processing defined by the correction parameter that is not yet used for correction, and the second entire corrected image Sz_2 in which the brightness, color, and the like of the entire image of this image are corrected. Is what you get. The first and second overall corrected images Sz_1 and Sz_2 are sent to the image composition unit 44.
画像合成部44は、全体補正部43より第1の全体補正画像Sz_1が送られてきた場合には、補正対象画像Sと第1の全体補正画像Sz_1とを、互いに対応する画素同士を合わせて、第1の全体補正画像Sz_1を得る際に用いられた補正パラメータに対応する補正対象領域のマスクデータで規定される合成比率で合成し、その補正対象領域のみが部分的に補正された第1の部分補正画像Sp_1を得るものである。また、全体補正部43より第2の補正画像Sz_2が送られてきた場合には、第1の部分補正画像Sp_1と第2の全体補正画像Sz_2とを、互いに対応する画素同士を合わせて、第2の全体補正画像Sz_2を得る際に用いられた補正パラメータに対応する補正対象領域のマスクデータで規定される合成比率で合成し、その補正対象領域のみが部分的に補正された第2の部分補正画像Sp_2を得るものである。このように画像を合成することにより、顔領域Rfと服領域Rcの画像がそれぞれ対応する補正パラメータで補正された部分補正画像Sp_2を得ることができる。 When the first overall correction image Sz_1 is sent from the overall correction unit 43, the image compositing unit 44 combines the correction target image S and the first overall correction image Sz_1 with pixels corresponding to each other. The first overall correction image Sz_1 is synthesized at a synthesis ratio defined by the mask data of the correction target region corresponding to the correction parameter used when obtaining the first overall correction image Sz_1, and only the correction target region is partially corrected. The partial correction image Sp_1 is obtained. Further, when the second correction image Sz_2 is sent from the whole correction unit 43, the first partial correction image Sp_1 and the second whole correction image Sz_2 are combined with each other corresponding pixels, and the first correction image Sz_2 is sent. A second portion in which only the correction target area is partially corrected by combining at a combining ratio defined by the mask data of the correction target area corresponding to the correction parameter used when obtaining the entire correction image Sz_2 of 2 A corrected image Sp_2 is obtained. By combining the images in this way, it is possible to obtain a partial correction image Sp_2 in which the images of the face region Rf and the clothing region Rc are corrected with the corresponding correction parameters.
下記の式(1)は、補正対象画像Sと、補正対象画像Sの画像全体に対して顔領域Rfに対応する補正パラメータPfで規定される画像処理を施して得られた第1の全体補正画像Sz_1とを、マスクデータMfの合成比率で合成して、第1の部分補正画像Sp_1を得る際の演算式(1)と、第1の部分補正画像Sp_1と、第1の部分補正画像Sp_1の画像全体に対して服領域Rcに対応する補正パラメータPcで規定される画像処理を施して得られた第2の全体補正画像Sz_2とを、マスクデータMcの合成比率で合成して、第2の部分補正画像Sp_2を得る際の演算式(2)を表している。
ここで、x,yは、それぞれの画像におけるx座標とy座標を表し、マスクデータMf,Mcの取り得る値は、1≧Mf(x,y)≧0,1≧Mc(x,y)≧0である。 Here, x and y represent the x-coordinate and y-coordinate in each image, and the possible values of the mask data Mf and Mc are 1 ≧ Mf (x, y) ≧ 0, 1 ≧ Mc (x, y) ≧ 0.
出力制御部50は、オリジナル画像のサムネイル画像のほか、マスクデータMf,Mcが定める画素単位の合成比率を濃淡の程度で表したマスク画像SMf,SMc、部分補正画像Sp_2等を、ユーザからの入力に応じてまたは自動で、表示装置61の画面に表示したり、最終的に得られた部分補正画像Sp_2を補正画像保存装置62にデジタルデータとして保存したり、また、印刷装置63に出力したりする制御を行うものである。 In addition to the original thumbnail image, the output control unit 50 inputs from the user mask images SMf and SMc, partial correction images Sp_2 and the like that represent the composition ratio in pixel units determined by the mask data Mf and Mc in shades. In response to or automatically, the image is displayed on the screen of the display device 61, the finally obtained partial correction image Sp_2 is stored as digital data in the correction image storage device 62, and is output to the printing device 63. The control which performs is performed.
表示装置61は、画像を表示するための画面を有し、出力制御部50の制御により、各種の画像をその画面に表示するものである。この表示装置61としては、CRTモニタ、液晶パネル等を考えることができる。 The display device 61 has a screen for displaying an image, and displays various images on the screen under the control of the output control unit 50. As the display device 61, a CRT monitor, a liquid crystal panel, or the like can be considered.
補正画像保存装置62は、オリジナル画像である補正対象画像Sに対して上述のような画像処理が施されて、顔領域Rfや服領域Rcの画像の明るさや色等が適正に補正された部分補正画像Sp_2を、デジタルデータとして保存するものである。この補正画像保存装置62としては、オリジナル画像保存部11と同様、ハードディスク、CD−ROM装置、DVD−ROM装置等を考えることができる。 The corrected image storage device 62 is a portion in which the image processing as described above is performed on the correction target image S, which is an original image, and the brightness and color of the image of the face region Rf and the clothing region Rc are corrected appropriately. The corrected image Sp_2 is stored as digital data. As the corrected image storage device 62, a hard disk, a CD-ROM device, a DVD-ROM device, and the like can be considered as in the original image storage unit 11.
印刷装置63は、出力制御部50の制御を受けて、部分補正画像Sp_2を紙媒体やフィルム等に印刷するものである。 Under the control of the output control unit 50, the printing device 63 prints the partial correction image Sp_2 on a paper medium, a film, or the like.
入力操作部70は、画像選択部12による補正対象となる画像の選択や表示装置61の画面に表示させる画像の選択等、種々のユーザの要求を示す情報を各部に入力するものである。この入力操作部70としては、例えば、マウスやキーボード、タッチパネル等を考えることができる。 The input operation unit 70 inputs information indicating various user requests such as selection of an image to be corrected by the image selection unit 12 and selection of an image to be displayed on the screen of the display device 61 to each unit. As the input operation unit 70, for example, a mouse, a keyboard, a touch panel, or the like can be considered.
これより、画像補正装置1における処理の流れについて説明する。 Hereafter, the flow of processing in the image correction apparatus 1 will be described.
図5は、画像補正装置1における処理の流れを示したフローチャートである。まず、はじめに、出力制御部50は、オリジナル画像保存部11に保存されている複数のオリジナル画像を読み出し、これら複数のオリジナル画像を縮小してサムネイル画像を作成し、これらのサムネイル画像を、表示装置61の画面に並べて表示する。 FIG. 5 is a flowchart showing the flow of processing in the image correction apparatus 1. First, the output control unit 50 reads out a plurality of original images stored in the original image storage unit 11, creates thumbnail images by reducing the plurality of original images, and displays these thumbnail images on a display device. 61 are displayed side by side on the screen.
ここで、ユーザが、表示装置61の画面に表示された複数のサムネイル画像の中からGUIで特定の画像を指定することにより、補正の対象となる画像を指定する。画像選択部12は、その指定された画像に対応するオリジナル画像を補正対象画像Sとして選択する。 Here, the user designates an image to be corrected by designating a specific image from the plurality of thumbnail images displayed on the screen of the display device 61 using the GUI. The image selection unit 12 selects an original image corresponding to the designated image as the correction target image S.
図6(1)は、このようにして選択された補正対象画像Sの一例を示す図である。図6(1)に示す補正対象画像Sは、ウェディングドレスを着た女性を被写体とするデジタル写真画像であり、女性の顔とウェディングドレスの明るさや色等が適正でない。 FIG. 6A is a diagram illustrating an example of the correction target image S selected in this way. The correction target image S shown in FIG. 6A is a digital photograph image in which a woman wearing a wedding dress is a subject, and the brightness and color of the woman's face and the wedding dress are not appropriate.
補正対象画像Sが選択されると、出力制御部50は、この補正対象画像Sを、表示装置61の画面に表示する。 When the correction target image S is selected, the output control unit 50 displays the correction target image S on the screen of the display device 61.
図7は、表示装置61の画面を示す図である。表示装置61の画面には、図7に示すように、補正対象画像Sもしくは部分補正画像Sp_2のいずれかを表示するエリアAR1、マスクデータMfが表すマスク画像SMfと顔領域Rfの画像とを位置的に重ねて表示したり、マスクデータMcが表すマスク画像SMcと服領域Rcの画像とを位置的に重ねて表示したりするエリアAR2、補正対象画像Sの補正対象領域における上述のC、M、Y、Dの各成分のレベルとこれら各成分の増減ボタンを表示するエリアAR3から構成されたウィンドウWinが表示される。なお、この段階では、エリアAR1に補正対象画像Sが表示されており、エリアAR2には何も表示されていない。 FIG. 7 is a diagram showing a screen of the display device 61. On the screen of the display device 61, as shown in FIG. 7, the area AR1 displaying either the correction target image S or the partial correction image Sp_2, the mask image SMf represented by the mask data Mf, and the image of the face region Rf are positioned. Area AR2 where the mask image SMc represented by the mask data Mc and the image of the clothing region Rc are displayed in a superimposed manner, and the above-described C, M in the correction target region of the correction target image S A window Win composed of an area AR3 displaying the levels of the respective components Y, D and D and the increase / decrease buttons of these components is displayed. At this stage, the correction target image S is displayed in the area AR1, and nothing is displayed in the area AR2.
ここで、ユーザが、その表示された補正対象画像S上で、補正したい顔を含む局所領域をGUIで指定すると、顔抽出対象領域設定部21はその局所領域を顔抽出対象領域Rxfとして設定する(ステップS1)。 Here, when the user designates a local area including the face to be corrected on the displayed correction target image S using the GUI, the face extraction target area setting unit 21 sets the local area as the face extraction target area Rxf. (Step S1).
顔抽出対象領域設定部21により顔抽出対象領域Rxfが設定されると、顔領域抽出部22は、顔抽出対象領域Rxfの画像情報、例えば、画像の明度、色相等に基づく上述のような所定のアルゴリズムにしたがって肌色領域を抽出することにより、顔領域Rfを抽出する(ステップS2)。 When the face extraction target region Rxf is set by the face extraction target region setting unit 21, the face region extraction unit 22 determines the predetermined information based on the image information of the face extraction target region Rxf, for example, the brightness, hue, and the like of the image. The face area Rf is extracted by extracting the skin color area according to the algorithm (step S2).
顔領域Rfが抽出されると、マスク作成部41は、顔領域Rfにのみに画像処理による補正が及ぶように規定したマスクデータMfを作成する。 When the face area Rf is extracted, the mask creating unit 41 creates mask data Mf that defines that correction by image processing is applied only to the face area Rf.
ここで、表示装置61の画面に表示されたウィンドウWin内のエリアAR2には、出力制御部50の制御により、マスク画像SMfと補正対象画像Sにおける顔領域Rfの画像とが位置的に重ねられて表示される。ユーザはこの画像を見ることにより、抽出された顔領域Rfが所望の領域であるか否かを確認することができる。 Here, in the area AR2 in the window Win displayed on the screen of the display device 61, the mask image SMf and the image of the face region Rf in the correction target image S are superimposed in position under the control of the output control unit 50. Displayed. By viewing this image, the user can confirm whether or not the extracted face area Rf is a desired area.
顔領域抽出部22により補正対象画像Sにおいて顔領域Rfが抽出されると、相関情報取得部31は、上述のような方法により、被写体の服の種類と相関のある相関事項、すなわち、被写体の性別、被写体の服の色もしくはテクスチャ、特定の種類の服と同時に使用される関連装着品の有無、被写体の髪型の種類、被写体の撮影時期、被写体が撮影されたときの行事等の内容を表す相関情報Ccを取得する(ステップS3)。 When the face area Rf is extracted from the correction target image S by the face area extraction unit 22, the correlation information acquisition unit 31 uses the above-described method to correlate items that are correlated with the type of clothing of the subject, that is, the subject's clothing. Shows the gender, the color or texture of the subject's clothing, the presence or absence of related accessories used at the same time as a specific type of clothing, the type of the subject's hairstyle, the shooting time of the subject, the event when the subject was shot, etc. Correlation information Cc is acquired (step S3).
相関情報取得部31により相関情報Ccが取得されると、服種類特定部32は、相関データベース34より相関テーブルTを読み取り、この相関テーブルTにおいて、服の種類毎に、相関情報Ccが表す相関事項の内容と合致する項目の数を求め、この合致する項目の数が最も多い服の種類を、被写体の服種類Vcのとして特定する。例えば、相関テーブルTが、図4に示す相関テーブルであり、相関情報Ccとして、被写体の服の色が「白」であること、イベントが「婚礼」であること、関連装着品である角隠しが無いことを表す情報が取得されたとすると、これらの相関事項の内容と合致する項目が最も多い服の種類は「ドレス」となり、被写体の服の種類Vcを「ドレス」として特定する(ステップS4)。 When the correlation information Cc is acquired by the correlation information acquisition unit 31, the clothing type identification unit 32 reads the correlation table T from the correlation database 34, and in this correlation table T, the correlation represented by the correlation information Cc for each type of clothing. The number of items that match the content of the item is obtained, and the type of clothing having the largest number of matching items is specified as the clothing type Vc of the subject. For example, the correlation table T is the correlation table shown in FIG. 4, and as the correlation information Cc, the color of the subject's clothes is “white”, the event is “wedding”, and the corner cover that is a related wearing item is If information indicating that there is no information is acquired, the type of clothes having the most items that match the contents of these correlation items is “dress”, and the type of clothes Vc of the subject is specified as “dress” (step S4). .
服種類特定部32により被写体の服の種類Vcが特定されると、服形状データ取得部33は、相関データベース34に保存されている複数の服形状データの中から、特定された服の種類Vcに対応する服形状データDcを読み取り、取得する(ステップS5)。なお、このとき、服形状データ取得部33は、顔抽出対象領域Rxfの位置または抽出された顔領域Rfの位置に基づいて、補正対象画像Sに対する被写体の顔の相対的な位置を求め、この位置が所定の高さより高い場合には、被写体は立位(立った姿勢)であると判定し、立位に対応した服形状データを選択して取得する。一方、この位置が所定の高さより低い場合には、被写体は座位(座った姿勢)であると判定し、座位に対応した服形状データを選択して取得する。 When the clothing type identification unit 32 identifies the clothing type Vc of the subject, the clothing shape data acquisition unit 33 identifies the identified clothing type Vc from the plurality of clothing shape data stored in the correlation database 34. Is read and acquired (step S5). At this time, the clothing shape data acquisition unit 33 obtains the relative position of the face of the subject with respect to the correction target image S based on the position of the face extraction target region Rxf or the position of the extracted face region Rf. If the position is higher than the predetermined height, it is determined that the subject is in a standing position (standing posture), and clothing shape data corresponding to the standing position is selected and acquired. On the other hand, when this position is lower than a predetermined height, it is determined that the subject is in a sitting position (sitting posture), and clothing shape data corresponding to the sitting position is selected and acquired.
服形状データ取得部33により、上記の特定された被写体の服の種類に対応する服形状データDcが取得されると、服抽出対象領域設定部35は、補正対象画像Sにおける顔抽出対象領域Rxfまたは顔領域Rfの位置により定まる被写体の服があるべき位置に、上記の取得した服形状データDcが表す形状の部分領域を、服抽出対象領域Rxcとして設定する(ステップS6)。被写体の服のあるべき位置は、例えば、顔抽出対象領域Rxfまたは顔領域Rfの下端から被写体の首に相当する所定幅分だけ間を空けて下方に移動した位置を服の上端とするような位置とすることができる。なお、服抽出対象領域Rxcの大きさは、顔抽出対象領域Rfまたは顔領域Rfの大きさから、被写体の顔の大きさを推定し、その大きさに見合った大きさに調整する。 When the clothing shape data acquisition unit 33 acquires the clothing shape data Dc corresponding to the type of clothing of the identified subject, the clothing extraction target region setting unit 35 includes the face extraction target region Rxf in the correction target image S. Alternatively, the partial area of the shape represented by the acquired clothes shape data Dc is set as the clothes extraction target area Rxc at a position where the clothes of the subject determined by the position of the face area Rf should be (step S6). The position of the subject's clothes should be, for example, the position that is moved downward from the lower end of the face extraction target area Rxf or the face area Rf by a predetermined width corresponding to the subject's neck, and the upper end of the clothes. It can be a position. Note that the size of the clothing extraction target region Rxc is adjusted to a size corresponding to the size of the face of the subject by estimating the size of the face of the subject from the size of the face extraction target region Rf or the face region Rf.
図8は、被写体の服を囲むように、「ドレス」の立位に対応する服形状データの形状で服抽出対象領域Rxcが設定された様子を示した図である。なお、この服抽出対象領域Rxcは、出力制御部50により、表示装置61の画面に表示された補正対象画像S上にその輪郭が表示される。ユーザは、この服抽出対象領域Rxcの形状を、GUIにより変形することができ、実際の被写体の服の形状により合致した形状に調整することができる。これにより、服領域Rcを抽出する上でノイズとなる背景成分を極力排除し、服領域Rcの抽出精度をより高めることができる。 FIG. 8 is a diagram illustrating a state in which the clothing extraction target region Rxc is set in the shape of the clothing shape data corresponding to the standing position of the “dress” so as to surround the clothing of the subject. Note that the outline of the clothing extraction target region Rxc is displayed on the correction target image S displayed on the screen of the display device 61 by the output control unit 50. The user can change the shape of the clothing extraction target region Rxc by using the GUI, and can adjust the shape to match the actual clothing shape of the subject. Thereby, the background component which becomes noise when extracting the clothing region Rc can be eliminated as much as possible, and the extraction accuracy of the clothing region Rc can be further increased.
服抽出対象領域設定部35により服抽出対象領域Rxcが設定されると、服領域抽出部36が、服抽出対象領域Rxcの画像情報、例えば、その画像のパターン、明度、色相、彩度等に基づいて、その画像中のエッジを検出したり、占有面積が最大である同系色の領域を抽出したりすることにより、補正対象画像Sにおける被写体の服を表す服領域Rcを抽出する(ステップS7)。 When the clothing extraction target region Rxc is set by the clothing extraction target region setting unit 35, the clothing region extraction unit 36 converts the image information of the clothing extraction target region Rxc, for example, the pattern, brightness, hue, and saturation of the image. Based on this, by detecting an edge in the image or extracting a region of the same color having the largest occupied area, a clothing region Rc representing the clothing of the subject in the correction target image S is extracted (step S7). ).
服領域Rcが抽出されると、マスク作成部41は、服領域Rcにのみに画像処理による補正が及ぶように規定したマスクデータMcを作成する。ここで、表示装置61の画面に表示されたウィンドウWin内のエリアAR2には、出力制御部50の制御により、マスク画像SMcと補正対象画像Sにおける服領域Rcの画像とが位置的に重ねられて表示される。ユーザはこの画像を見ることにより、抽出された服領域Rcが所望の領域であるか否かを確認することができる。 When the clothing region Rc is extracted, the mask creating unit 41 creates the mask data Mc that is defined so that the correction by image processing extends only to the clothing region Rc. Here, in the area AR2 in the window Win displayed on the screen of the display device 61, the mask image SMc and the image of the clothing region Rc in the correction target image S are superimposed in position under the control of the output control unit 50. Displayed. By viewing this image, the user can confirm whether or not the extracted clothing region Rc is a desired region.
顔領域Rfと服領域Rcとが抽出されると、補正部36は、顔領域Rfおよび服領域Rcの各画像に画像処理を施して、これら各画像の明るさまたは色を補正する(ステップS8)。この補正は、具体的には、以下のような処理となる。 When the face region Rf and the clothing region Rc are extracted, the correction unit 36 performs image processing on each image of the face region Rf and the clothing region Rc, and corrects the brightness or color of each image (step S8). ). Specifically, this correction is performed as follows.
補正パラメータ設定部42は、顔領域Rfと服領域Rcのそれぞれの画像に施す画像処理の条件となる補正パラメータPf,Pcの初期値を設定する。まず、抽出された顔領域Rfの中から純粋な肌色領域を検出し、その肌色領域の明度が肌として適正な明度となるような補正量を算出する。すなわち、顔領域Rfにおける各画素の彩度を求め、顔領域Rfのうちこの彩度が所定の閾値を下回る画素を除いた他の領域を抽出する。これにより、顔領域Rf中の頭髪、眉、黒目、影を除いた肌色領域が抽出される。そして、この肌色領域における各画素の明度を求め、その明度の平均値Daveもしくは中間値Dmidを算出する。それから、写真画像における人物の肌の明度として好ましいとされる明度、すなわち、補正後の目標とする明度Didealから上記のDaveもしくはDmidを減算して、明度の補正量Dmodを求める(Dmod=Dideal−(Dave or Dmid))。そして、明度の補正量Dmodの値に基づいて、画像上の各成分の補正量が補正パラメータPfの初期値として設定される。例えば、C,M,Y(R,G,Bでもよい)の各成分毎に補正する補正量が補正量レベルとして定義され、各画素の色成分毎の信号値は、この補正量レベルにそれぞれ対応する変換曲線(例えば、1次元ルックアップテーブル)によって変換される。同様に、抽出された服領域Rcの明度が、服種類特定部32により特定された服の種類として適正な明度となるような補正量を算出する。すなわち、この服領域Rcにおける各画素の明度を求め、その明度の平均値Daveもしくは中間値Dmidを算出する。それから、写真画像におけるその服の種類の明度として好ましいとされる明度、すなわち、補正後の目標とする明度Didealから上記のDaveもしくはDmidを減算して、明度の補正量Dmodを求める(Dmod=Dideal−(Dave or Dmid))。そして、明度の補正量Dmodの値に基づいて、画像上の各成分の補正量が補正パラメータPcの初期値として設定される。 The correction parameter setting unit 42 sets initial values of correction parameters Pf and Pc that are conditions for image processing performed on the images of the face region Rf and the clothing region Rc. First, a pure skin color area is detected from the extracted face area Rf, and a correction amount is calculated so that the brightness of the skin color area is appropriate for the skin. That is, the saturation of each pixel in the face region Rf is obtained, and other regions are extracted from the face region Rf excluding pixels whose saturation is below a predetermined threshold. As a result, the skin color area excluding the hair, eyebrows, black eyes, and shadows in the face area Rf is extracted. Then, the brightness of each pixel in this skin color region is obtained, and the average value Dave or intermediate value Dmid of the brightness is calculated. Then, the lightness correction amount Dmod is obtained by subtracting the above-mentioned Dave or Dmid from the lightness that is preferable as the lightness of the skin of the person in the photographic image, that is, the target lightness value after correction (Dmod = Dideal− (Dave or Dmid)). Based on the value of the brightness correction amount Dmod, the correction amount of each component on the image is set as the initial value of the correction parameter Pf. For example, a correction amount to be corrected for each component of C, M, and Y (may be R, G, and B) is defined as a correction amount level, and a signal value for each color component of each pixel is set to this correction amount level. Conversion is performed by a corresponding conversion curve (for example, a one-dimensional lookup table). Similarly, a correction amount is calculated such that the lightness of the extracted clothing region Rc becomes appropriate lightness as the clothing type specified by the clothing type specifying unit 32. That is, the brightness of each pixel in the clothing region Rc is obtained, and the average value Dave or intermediate value Dmid of the brightness is calculated. Then, the lightness correction amount Dmod is obtained by subtracting the above-mentioned Dave or Dmid from the lightness that is preferable as the lightness of the clothing type in the photographic image, that is, the target lightness value after correction (Dmod = Dideal). -(Dave or Dmid)). Based on the value of the brightness correction amount Dmod, the correction amount of each component on the image is set as the initial value of the correction parameter Pc.
全体補正部43は、補正対象画像Sの画像全体に対して、補正パラメータPfで規定される画像処理を施して、この画像の画像全体の明るさや色等が補正された第1の全体補正画像Sz_1を得る。この第1の全体補正画像Sz_1は、画像合成部44へ送られる。 The overall correction unit 43 performs the image processing specified by the correction parameter Pf on the entire image of the correction target image S, and corrects the brightness, color, and the like of the entire image of this image. Sz_1 is obtained. The first entire corrected image Sz_1 is sent to the image composition unit 44.
この第1の全体補正画像Sz_1が画像合成部44に送られると、画像合成部44は、補正対象画像Sと第1の全体補正画像Sz_1とを、互いに対応する画素同士を合わせて、顔領域RfのマスクデータMfで規定される合成比率で合成し、その顔領域Rfのみが部分的に補正された第1の部分補正画像Sp_1を得る。この第1の部分補正画像Sp_1は、全体補正部43に送られる。 When the first overall corrected image Sz_1 is sent to the image synthesis unit 44, the image synthesis unit 44 combines the correction target image S and the first overall correction image Sz_1 together with the pixels corresponding to each other. The first partial corrected image Sp_1 is obtained by combining at a combining ratio defined by the mask data Mf of Rf and partially correcting only the face region Rf. The first partial correction image Sp_1 is sent to the overall correction unit 43.
この第1の部分補正画像Sp_1が全体補正部43に送られると、全体補正部43は、この第1の部分補正画像Sp_1の画像全体に対して、まだ補正に使われていない方の補正パラメータPcで規定される画像処理を施して、この画像の画像全体の明るさや色等が補正された第2の全体補正画像Sz_2を得る。この第2の全体補正画像Sz_2は、さらに画像合成部44に送られる。 When the first partial correction image Sp_1 is sent to the overall correction unit 43, the overall correction unit 43 corrects the correction parameter that has not been used for correction for the entire image of the first partial correction image Sp_1. Image processing defined by Pc is performed to obtain a second overall corrected image Sz_2 in which the brightness, color, etc. of the entire image of this image are corrected. The second entire corrected image Sz_2 is further sent to the image composition unit 44.
この第2の補正画像Sz_2が画像合成部44に送られると、画像合成部44は、第1の部分補正画像Sp_1と第2の全体補正画像Sz_2とを、互いに対応する画素同士を合わせて、服領域RcのマスクデータMcで規定される合成比率で合成し、顔領域Rfに加え、さらに服領域Rcが補正された第2の部分補正画像Sp_2を得る。このように画像を合成することにより、顔領域Rfと服領域Rcの画像がそれぞれ対応する補正パラメータで補正された第2の部分補正画像Sp_2を得ることができる。この第2の部分補正画像Sp_2は、出力制御部40の制御により、表示装置61の画面に表示される。 When the second corrected image Sz_2 is sent to the image composition unit 44, the image composition unit 44 combines the first partial correction image Sp_1 and the second overall correction image Sz_2 with corresponding pixels. A second partial correction image Sp_2 in which the clothing region Rc is corrected in addition to the face region Rf is obtained by combining at a composition ratio defined by the mask data Mc of the clothing region Rc. By synthesizing the images in this way, it is possible to obtain a second partial correction image Sp_2 in which the images of the face region Rf and the clothing region Rc are corrected with the corresponding correction parameters. The second partial correction image Sp_2 is displayed on the screen of the display device 61 under the control of the output control unit 40.
図6は、補正対象画像Sと第1の全体補正画像Sz_1とを、マスクデータMfで規定する合成比率で合成し、第1の部分補正画像Sp_1が生成される様子を示した図である。図6(1)は、ウェディングドレスを着た女性を被写体とするデジタル写真画像である補正対象画像Sを示す図である。図6(2)は、第1の全体補正画像Sz_1の一例を示す図であり、この第1の全体補正画像Sz_1は、被写体である女性の顔の肌領域が適正な明るさになるように、補正対象画像Sの画像全体の明度が補正された状態の画像である。図6(3)は、マスクデータMfが表すマスク画像SMfの一例を示す図であり、顔領域の境界がぼかされている。図6(4)は、第1の部分補正画像Sp_1の一例を示す図であり、この第1の部分補正画像Sp_1は、女性の顔領域が適正な明るさとなるように、女性の顔領域Rfのみが補正された図である。 FIG. 6 is a diagram illustrating a state in which the first partial correction image Sp_1 is generated by combining the correction target image S and the first overall correction image Sz_1 at a combination ratio defined by the mask data Mf. FIG. 6A is a diagram illustrating a correction target image S that is a digital photographic image with a woman wearing a wedding dress as a subject. FIG. 6B is a diagram illustrating an example of the first overall correction image Sz_1, and the first overall correction image Sz_1 is set so that the skin area of the face of the woman who is the subject has appropriate brightness. This is an image in a state where the brightness of the entire image of the correction target image S is corrected. FIG. 6 (3) is a diagram showing an example of the mask image SMf represented by the mask data Mf, and the boundary of the face area is blurred. FIG. 6 (4) is a diagram illustrating an example of the first partial correction image Sp_1. The first partial correction image Sp_1 is a female face region Rf so that the female face region has appropriate brightness. Only the figure is corrected.
図9は、顔領域Rfおよび服領域Rcが抽出された場合における表示装置61の画面の一例を示す図である。図9に示すように、エリアAR2には、顔領域Rfのマスク画像SMfと服領域Rcのマスク画像SMcとが並んで表示されており、AR1には、第2の部分補正画像Sp_2が表示されている。 FIG. 9 is a diagram illustrating an example of a screen of the display device 61 when the face region Rf and the clothing region Rc are extracted. As shown in FIG. 9, in the area AR2, the mask image SMf of the face area Rf and the mask image SMc of the clothes area Rc are displayed side by side, and the second partial correction image Sp_2 is displayed in AR1. ing.
ユーザはその画面を見ながら、さらに補正量を適正にすべく、補正したい補正対象領域、すなわち、顔領域Rfか服領域Rcのいずれかを選択し、GUIによって表示装置61の画面のウィンドウWin内のエリアAR3に表示されたC、M、Y、Dの各成分の補正量の増減ボタンを押して各成分の補正量を微調整する。補正パラメータ設定部42は、そのユーザによる微調整の指示にしたがって、補正パラメータPf,Pcを再設定する。 While viewing the screen, the user selects a correction target area to be corrected, that is, either the face area Rf or the clothes area Rc, in order to make the correction amount appropriate, and the GUI displays a window Win on the screen of the display device 61 by the GUI. A correction amount increase / decrease button for each of the C, M, Y, and D components displayed in the area AR3 is pressed to finely adjust the correction amount for each component. The correction parameter setting unit 42 resets the correction parameters Pf and Pc in accordance with the fine adjustment instruction from the user.
全体補正部43および画像合成部44は、この再設定された補正パラメータを用いて一連の処理を行い、新たな第2の部分補正画像Sp_2を得る。そして、この第2の部分補正画像Sp_2は、出力制御部50の制御により、表示装置61の画面に更新される形で表示される。 The overall correction unit 43 and the image composition unit 44 perform a series of processes using the reset correction parameter, and obtain a new second partial correction image Sp_2. The second partial correction image Sp_2 is displayed on the screen of the display device 61 under the control of the output control unit 50.
このような補正パラメータの設定を必要に応じて繰り返し、ユーザが、所望の補正パラメータを設定することができたと判断した場合には、補正画像Sp_2を保存するか、印刷する命令を本画像補正装置1に送り、出力制御部50が、その命令に応じて、補正画像Sp_2を補正画像保存装置62にデジタルデータとして保存するか、印刷装置63に印刷させる。 Such correction parameter setting is repeated as necessary, and when the user determines that the desired correction parameter can be set, the correction image Sp_2 is stored or an instruction to print is issued to the image correction apparatus. 1, the output control unit 50 stores the corrected image Sp_2 as digital data in the corrected image storage device 62 or causes the printing device 63 to print in accordance with the command.
このような、本発明の画像補正装置によれば、補正対象画像(被写体画像)上でユーザ(操作者)によって指定された顔抽出対象領域から顔領域を抽出するとともに、被写体の服の種類と相関のある相関事項の内容を表す相関情報を取得し、この内容と相関が最も高い服の種類を求め、その服の形状で模られた服抽出対象領域を、被写体の顔の位置を基準として定められる被写体の服があるべき位置に設定し、その服抽出対象領域から服領域を抽出し、顔領域と服領域の各画像の明るさ、色および階調のうち少なくとも1つを補正するので、相関情報を利用することにより、実際の被写体の服の種類を特定し、服領域を抽出する対象となる服抽出対象領域を、適正な位置に適当な形状で設定することができ、煩雑な作業や操作者のスキルを必要とせずに、デジタル画像上の人物の顔とその服装の領域を的確に抽出し、これらの領域の画像を補正して当該画像の画質を向上させることが可能となる。 According to such an image correction apparatus of the present invention, the face area is extracted from the face extraction target area designated by the user (operator) on the correction target image (subject image), and the type of clothes of the subject is determined. Correlation information representing the contents of correlated items with correlation is obtained, the type of clothing having the highest correlation with this content is obtained, and the clothing extraction target area imitated by the shape of the clothing is used as a reference for the position of the subject's face Since the clothes of the determined subject should be set to the position where the clothes should be, the clothes area is extracted from the clothes extraction target area, and at least one of the brightness, color and gradation of each image of the face area and the clothes area is corrected By using the correlation information, it is possible to identify the type of clothes of the actual subject and set the clothes extraction target area to be extracted from the clothes area at an appropriate position in an appropriate shape, which is complicated. Requires work and operator skills And without, the face of the person on the digital image region of the clothing was precisely extracted, it is possible to improve the image quality of the image by correcting the image in these areas.
なお、本実施形態においては、相関テーブルTは1つだけであったが、複数の異なる相関テーブルを用意し、場合に応じて使用する相関テーブルを切り替えるようにしてもよい。例えば、遊園地や観光スポットと関連のある服の種類をリストアップした行楽用の相関テーブルを用意しておき、補正対象画像S上で、遊園地や観光スポットにおける特定の動物やアニメのキャラクターを検出する処理を施して、それらのキャラクターが検出されたときには、行楽用の相関テーブルを用いて被写体の服の種類を特定するようにしてもよい。 In the present embodiment, there is only one correlation table T. However, a plurality of different correlation tables may be prepared, and the correlation table to be used may be switched according to circumstances. For example, a correlation table for excursions that lists the types of clothes related to amusement parks and sightseeing spots is prepared, and specific animals and anime characters at amusement parks and sightseeing spots are displayed on the correction target image S. When these characters are detected by performing detection processing, the type of clothing of the subject may be specified using a correlation table for vacation.
また、本実施形態においては、服抽出対象領域Rxcを設定する際に、服形状データが表す形状で、その大きさを被写体の顔の大きさに応じて調整して設定するようにしているが、その際、服抽出対象領域Rxcの大きさを線形に連続的に変化させることが可能な機能を設けて調整してもよいし、形状の大きさが数段階に異なる複数の服形状データを予め用意しておき、被写体の顔の大きさに応じて、その中から適当な大きさの服形状データを選択し、その形状と同じ形状の領域を服抽出対象領域Rxcとして設定するようにしてもよい。 Further, in the present embodiment, when the clothing extraction target region Rxc is set, the shape represented by the clothing shape data is adjusted and set according to the size of the face of the subject. In this case, a function capable of linearly and continuously changing the size of the clothing extraction target region Rxc may be provided and adjusted, or a plurality of clothing shape data having different shape sizes in several stages may be provided. Prepared in advance, according to the size of the face of the subject, select clothing shape data of an appropriate size, and set a region having the same shape as the clothing extraction target region Rxc Also good.
また、本実施形態においては、服抽出対象領域Rxcは、顔の傾き等を求めて服があるべき位置を定め、その位置に設定するようにしているが、これとは別に、例えば、ユーザが位置や方向を指定し、それにしたがって服抽出対象領域Rxcの設定位置を決めるようにしてもよい。 In the present embodiment, the clothes extraction target region Rxc determines the position where clothes should be found by determining the inclination of the face, and is set to that position. The position and direction may be designated, and the setting position of the clothing extraction target area Rxc may be determined accordingly.
また、服領域抽出部22による服抽出対象領域Rxcから服領域Rcを抽出する処理においては、次のような処理を利用するようにしてもよい。まず、服抽出対象領域Rxcの画像の色を判定し、服抽出対象領域Rxcの画像に白または黒が含まれている場合には、明度、色相、彩度による閾値判定を行う。ただし、明るさに関しては、画像全体のヒストグラムを見て、明るさの閾値を調整する。例えば、黒は、明度のヒストグラムにおいて明度値が最小値から全体の中間値まで、白は、明度のヒストグラムにおいて明度値が最大値から全体の中間値まで、とする。一方、服抽出対象領域Rxcの画像に白および黒を含まない場合には、色相による領域指定を行う。細やかな柄やワンポイント柄がある場合を考慮して、モフォロジー処理の拡張処理と収縮処理を各1回行う。 Further, in the process of extracting the clothing region Rc from the clothing extraction target region Rxc by the clothing region extraction unit 22, the following processing may be used. First, the color of the image of the clothing extraction target region Rxc is determined, and if the image of the clothing extraction target region Rxc contains white or black, threshold determination is performed based on lightness, hue, and saturation. However, regarding the brightness, the brightness threshold is adjusted by looking at the histogram of the entire image. For example, in the brightness histogram, the brightness value is from the minimum value to the overall intermediate value in the brightness histogram, and in white, the brightness value is from the maximum value to the overall intermediate value in the brightness histogram. On the other hand, if the image of the clothing extraction target region Rxc does not include white and black, the region designation by the hue is performed. Considering the case where there are fine patterns and one-point patterns, the expansion process and the contraction process of the morphology process are performed once.
以上、本発明の実施形態である画像補正装置について説明したが、上記画像補正装置における各処理をコンピュータに実行させるためのプログラムも、本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取可能な記録媒体も、本発明の実施形態の1つである。 The image correction apparatus according to the embodiment of the present invention has been described above, but a program for causing a computer to execute each process in the image correction apparatus is also an embodiment of the present invention. A computer-readable recording medium that records such a program is also one embodiment of the present invention.
1 画像補正装置
11 オリジナル画像保存部
12 画像選択部
21 顔抽出対象領域設定部
22 顔領域抽出部
31 相関情報取得部
32 服種類特定部
33 服形状データ取得部
34 相関データベース
35 服抽出対象領域設定部
36 服領域抽出部
40 補正部
41 マスク作成部
42 補正パラメータ設定部
43 全体補正部
44 画像合成部
50 出力制御部
61 表示装置
62 補正画像保存装置
63 印刷装置
70 入力操作部
DESCRIPTION OF SYMBOLS 1 Image correction apparatus 11 Original image storage part 12 Image selection part 21 Face extraction object area | region setting part 22 Face area extraction part 31 Correlation information acquisition part 32 Clothing type specific | specification part 33 Clothing shape data acquisition part 34 Correlation database 35 Clothes extraction object area | region setting Unit 36 Clothing region extraction unit 40 Correction unit 41 Mask creation unit 42 Correction parameter setting unit 43 Overall correction unit 44 Image composition unit 50 Output control unit 61 Display device 62 Correction image storage device 63 Printing device 70 Input operation unit
Claims (12)
前記顔抽出対象領域の画像情報に基づいて、該領域から前記顔を表す顔領域を抽出するステップと、
前記被写体の服の種類と相関関係のある少なくとも1つの相関事項の内容を表す相関情報を取得するステップと、
前記相関関係に基づいて、前記取得された相関情報が表す相関事項の内容と相関が最も高い服の種類を特定するステップと、
それぞれが前記種類毎の各服の形状を表す複数の服形状データの中から、前記特定された服の種類に対応した服形状データを取得するステップと、
前記被写体画像における前記顔抽出対象領域または前記顔領域の位置により定まる前記被写体の服があるべき位置に、前記取得した服形状データが表す形状を有する領域を、服抽出対象領域として設定するステップと、
前記服抽出対象領域の画像情報に基づいて、該領域から前記被写体の服を表す服領域を抽出するステップと、
前記被写体画像における前記顔領域および前記服領域の各画像に画像処理を施して該各画像の明るさ、色および階調のうち少なくとも1つを補正するステップとを有することを特徴とする画像補正方法。 Setting a local region including a face of the subject designated by an operator in a subject image including a subject that is a person as a face extraction target region;
Extracting a face area representing the face from the area based on image information of the face extraction target area;
Obtaining correlation information representing the content of at least one correlation item correlated with the type of clothing of the subject;
Based on the correlation, identifying the type of clothing having the highest correlation with the content of the correlation item represented by the acquired correlation information;
Obtaining clothes shape data corresponding to the specified clothes type from a plurality of clothes shape data each representing the shape of each clothes for each type;
Setting a region having a shape represented by the acquired clothing shape data at a position where the clothing of the subject, which is determined by the position of the face extraction target region or the face region in the subject image, should be a clothing extraction target region; ,
Extracting a clothing region representing clothing of the subject from the region based on image information of the clothing extraction target region;
And performing image processing on each image of the face region and the clothing region in the subject image to correct at least one of brightness, color, and gradation of each image. Method.
前記服形状データを取得するステップが、前記顔抽出対象領域または前記顔領域の前記被写体画像に対する相対的な位置の高低に応じて、前記2種類のデータのうちいずれかを選択して取得するステップであることを特徴とする請求項1、2または3記載の画像補正方法。 The clothes shape data includes two types of data corresponding to the standing position and the sitting position of the subject,
The step of acquiring the clothing shape data is a step of selecting and acquiring one of the two types of data according to the relative position of the face extraction target region or the face region with respect to the subject image. The image correction method according to claim 1, 2 or 3.
前記顔抽出対象領域の画像情報に基づいて、該領域から前記顔を表す顔領域を抽出する顔領域抽出手段と、
前記被写体の服の種類と相関関係のある少なくとも1つの相関事項の内容を表す相関情報を取得する相関情報取得手段と、
前記相関関係に基づいて、前記取得された相関情報が表す相関事項の内容と相関が最も高い服の種類を特定する服種類特定手段と、
それぞれが前記種類毎の各服の形状を表す複数の服形状データの中から、前記特定された服の種類に対応した服形状データを取得する服形状データ取得手段と、
前記被写体画像における前記顔抽出対象領域または前記顔領域の位置により定まる前記被写体の服があるべき位置に、前記取得した服形状データが表す形状を有する領域を、服抽出対象領域として設定する服抽出対象領域設定手段と、
前記服抽出対象領域の画像情報に基づいて、該領域から前記被写体の服を表す服領域を抽出する服領域抽出手段と、
前記被写体画像における前記顔領域および前記服領域の各画像に画像処理を施して該各画像の明るさ、色および階調のうち少なくとも1つを補正する補正手段とを備えたことを特徴とする画像補正装置。 Face extraction target region setting means for setting a local region including the face of the subject specified by the operator in a subject image including a subject that is a person as a face extraction target region;
A face area extracting means for extracting a face area representing the face from the area based on image information of the face extraction target area;
Correlation information acquisition means for acquiring correlation information representing the content of at least one correlation item correlated with the type of clothing of the subject;
Based on the correlation, clothes type specifying means for specifying the type of clothes having the highest correlation with the content of the correlation item represented by the acquired correlation information;
Out of a plurality of clothing shape data each representing the shape of each clothing for each type, clothing shape data acquisition means for acquiring clothing shape data corresponding to the specified clothing type;
Clothing extraction for setting, as a clothing extraction target region, a region having a shape represented by the acquired clothing shape data at a position where the clothing of the subject is determined by the face extraction target region or the position of the face region in the subject image Target area setting means;
Clothes area extraction means for extracting a clothes area representing clothes of the subject from the area based on image information of the clothes extraction target area;
And correction means for performing image processing on each image of the face area and the clothes area in the subject image to correct at least one of brightness, color, and gradation of each image. Image correction device.
前記服形状データ取得手段が、前記顔抽出対象領域または前記顔領域の前記被写体画像に対する相対的な位置の高低に応じて、前記2種類のデータのうちいずれかを選択して取得するものであることを特徴とする請求項5、6または7記載の画像補正装置。 The clothes shape data includes two types of data corresponding to the standing position and the sitting position of the subject,
The clothing shape data acquisition means selects and acquires one of the two types of data according to the relative position of the face extraction target area or the face area with respect to the subject image. The image correction apparatus according to claim 5, 6 or 7.
人物である被写体を含む被写体画像において操作者により指定された前記被写体の顔を含む局所領域を、顔抽出対象領域として設定する顔抽出対象領域設定手段と、
前記顔抽出対象領域の画像情報に基づいて、該領域から前記顔を表す顔領域を抽出する顔領域抽出手段と、
前記被写体の服の種類と相関関係のある少なくとも1つの相関事項の内容を表す相関情報を取得する相関情報取得手段と、
前記相関関係に基づいて、前記取得された相関情報が表す相関事項の内容と相関が最も高い服の種類を特定する服種類特定手段と、
それぞれが前記種類毎の各服の形状を表す複数の服形状データの中から、前記特定された服の種類に対応した服形状データを取得する服形状データ取得手段と、
前記被写体画像における前記顔抽出対象領域または前記顔領域の位置により定まる前記被写体の服があるべき位置に、前記取得した服形状データが表す形状を有する領域を、服抽出対象領域として設定する服抽出対象領域設定手段と、
前記服抽出対象領域の画像情報に基づいて、該領域から前記被写体の服を表す服領域を抽出する服領域抽出手段と、
前記被写体画像における前記顔領域および前記服領域の各画像に画像処理を施して該各画像の明るさ、色および階調のうち少なくとも1つを補正する補正手段として機能させるためのプログラム。 Computer
Face extraction target region setting means for setting a local region including the face of the subject specified by the operator in a subject image including a subject that is a person as a face extraction target region;
A face area extracting means for extracting a face area representing the face from the area based on image information of the face extraction target area;
Correlation information acquisition means for acquiring correlation information representing the content of at least one correlation item correlated with the type of clothing of the subject;
Based on the correlation, clothes type specifying means for specifying the type of clothes having the highest correlation with the content of the correlation item represented by the acquired correlation information;
Out of a plurality of clothing shape data each representing the shape of each clothing for each type, clothing shape data acquisition means for acquiring clothing shape data corresponding to the specified clothing type;
Clothing extraction for setting, as a clothing extraction target region, a region having a shape represented by the acquired clothing shape data at a position where the clothing of the subject is determined by the face extraction target region or the position of the face region in the subject image Target area setting means;
Clothes area extraction means for extracting a clothes area representing clothes of the subject from the area based on image information of the clothes extraction target area;
A program for performing image processing on each image of the face area and the clothes area in the subject image to function as correction means for correcting at least one of brightness, color, and gradation of each image.
前記服形状データ取得手段が、前記顔抽出対象領域または前記顔領域の前記被写体画像に対する相対的な位置の高低に応じて、前記2種類のデータのうちいずれかを選択して取得するものであることを特徴とする請求項9、10または11記載のプログラム。 The clothes shape data includes two types of data corresponding to the standing position and the sitting position of the subject,
The clothing shape data acquisition means selects and acquires one of the two types of data according to the relative position of the face extraction target area or the face area with respect to the subject image. The program according to claim 9, 10 or 11.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005281271A JP2007094623A (en) | 2005-09-28 | 2005-09-28 | Image correcting method and device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005281271A JP2007094623A (en) | 2005-09-28 | 2005-09-28 | Image correcting method and device, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007094623A true JP2007094623A (en) | 2007-04-12 |
Family
ID=37980290
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005281271A Withdrawn JP2007094623A (en) | 2005-09-28 | 2005-09-28 | Image correcting method and device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007094623A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009070260A (en) * | 2007-09-14 | 2009-04-02 | Shinko Electric Co Ltd | Image processor, image processing method and program |
JP2009135724A (en) * | 2007-11-30 | 2009-06-18 | Sanyo Electric Co Ltd | Image composing device |
JP2009211275A (en) * | 2008-03-03 | 2009-09-17 | Canon Inc | Image processor, image processing method, program, and storage medium |
JP2013105214A (en) * | 2011-11-10 | 2013-05-30 | Canon Inc | Image processor, image processing method, program, and storage medium |
WO2013118218A1 (en) * | 2012-02-09 | 2013-08-15 | パナソニック株式会社 | Image recognition device, image recognition method, program and integrated circuit |
JP2018093445A (en) * | 2016-12-07 | 2018-06-14 | 株式会社大林組 | Monitoring system, monitoring method, and monitoring program |
CN109104545A (en) * | 2017-06-20 | 2018-12-28 | 富士施乐株式会社 | Image processing equipment, image processing method and image processing system |
JP2019009764A (en) * | 2017-06-20 | 2019-01-17 | 富士ゼロックス株式会社 | Image processor, image processing method, image processing system, and program |
JP2019205205A (en) * | 2015-04-15 | 2019-11-28 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP2021044772A (en) * | 2019-09-13 | 2021-03-18 | 富士フイルム株式会社 | Image processing apparatus, imaging apparatus, image processing method, and image processing program |
US11106938B2 (en) | 2015-04-15 | 2021-08-31 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data |
-
2005
- 2005-09-28 JP JP2005281271A patent/JP2007094623A/en not_active Withdrawn
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009070260A (en) * | 2007-09-14 | 2009-04-02 | Shinko Electric Co Ltd | Image processor, image processing method and program |
JP2009135724A (en) * | 2007-11-30 | 2009-06-18 | Sanyo Electric Co Ltd | Image composing device |
JP2009211275A (en) * | 2008-03-03 | 2009-09-17 | Canon Inc | Image processor, image processing method, program, and storage medium |
JP2013105214A (en) * | 2011-11-10 | 2013-05-30 | Canon Inc | Image processor, image processing method, program, and storage medium |
CN103348381B (en) * | 2012-02-09 | 2017-10-24 | 松下电器(美国)知识产权公司 | Pattern recognition device, image-recognizing method and integrated circuit |
CN103348381A (en) * | 2012-02-09 | 2013-10-09 | 松下电器产业株式会社 | Image recognition device, image recognition method, program and integrated circuit |
JPWO2013118218A1 (en) * | 2012-02-09 | 2015-05-11 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | Image recognition apparatus, image recognition method, program, and integrated circuit |
US9082013B2 (en) | 2012-02-09 | 2015-07-14 | Panasonic Intellectual Property Corporation Of America | Image recognition device, image recognition method, program, and integrated circuit |
WO2013118218A1 (en) * | 2012-02-09 | 2013-08-15 | パナソニック株式会社 | Image recognition device, image recognition method, program and integrated circuit |
JP2019205205A (en) * | 2015-04-15 | 2019-11-28 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
US11106938B2 (en) | 2015-04-15 | 2021-08-31 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data |
JP2018093445A (en) * | 2016-12-07 | 2018-06-14 | 株式会社大林組 | Monitoring system, monitoring method, and monitoring program |
CN109104545A (en) * | 2017-06-20 | 2018-12-28 | 富士施乐株式会社 | Image processing equipment, image processing method and image processing system |
JP2019009764A (en) * | 2017-06-20 | 2019-01-17 | 富士ゼロックス株式会社 | Image processor, image processing method, image processing system, and program |
JP2021044772A (en) * | 2019-09-13 | 2021-03-18 | 富士フイルム株式会社 | Image processing apparatus, imaging apparatus, image processing method, and image processing program |
JP7110163B2 (en) | 2019-09-13 | 2022-08-01 | 富士フイルム株式会社 | Image processing device, imaging device, image processing method, and image processing program |
US11734859B2 (en) | 2019-09-13 | 2023-08-22 | Fujifilm Corporation | Image processing apparatus, imaging apparatus, image processing method, and image processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007094623A (en) | Image correcting method and device, and program | |
JP2006338377A (en) | Image correction method, apparatus, and program | |
JP4171574B2 (en) | Image processing condition determining apparatus and image processing condition determining program storage medium | |
JP4329475B2 (en) | Decorative image selection | |
JP4924264B2 (en) | Image processing apparatus, image processing method, and computer program | |
US20070071316A1 (en) | Image correcting method and image correcting system | |
US20060251299A1 (en) | Image processing method | |
JP4421761B2 (en) | Image processing method and apparatus, and recording medium | |
JP2000261650A (en) | Image processing unit | |
JP2004265406A (en) | Method and system for improving portrait image processed in batch mode | |
JP2008234342A (en) | Image processor and image processing method | |
JP2001092956A (en) | Device and method for automatically correcting color and recording medium stored with control program therefor | |
JP2006303899A (en) | Image processor, image processing system, and image processing program | |
JP2004246456A (en) | Apparatus and method for image editing | |
JP2010211308A (en) | Makeup advice device, the makeup advice method and program | |
JP2006080746A (en) | Image processor, electronic camera, and image processing program | |
JP2009124231A (en) | Image correction device, and image correction method | |
JP2003274139A (en) | Object layout device, image layout device, object layout program, image layout program, object layout method, and image layout method | |
JP2008243059A (en) | Image processing device and method | |
JP4875470B2 (en) | Color correction apparatus and color correction program | |
JP2021144582A (en) | Makeup simulation device, makeup simulation method and program | |
JP2004199248A (en) | Image layouting device, method and program | |
JP2007087123A (en) | Image correction method, device and program | |
JP2004228995A (en) | Image trimming device, image trimming method, and program | |
JP4372494B2 (en) | Image processing apparatus, image processing method, program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20081202 |