JP4498040B2 - Image processing method and apparatus - Google Patents

Image processing method and apparatus Download PDF

Info

Publication number
JP4498040B2
JP4498040B2 JP2004203702A JP2004203702A JP4498040B2 JP 4498040 B2 JP4498040 B2 JP 4498040B2 JP 2004203702 A JP2004203702 A JP 2004203702A JP 2004203702 A JP2004203702 A JP 2004203702A JP 4498040 B2 JP4498040 B2 JP 4498040B2
Authority
JP
Japan
Prior art keywords
image
region
luminance
subject
skin region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004203702A
Other languages
Japanese (ja)
Other versions
JP2006024132A (en
JP2006024132A5 (en
Inventor
茂 溝口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004203702A priority Critical patent/JP4498040B2/en
Publication of JP2006024132A publication Critical patent/JP2006024132A/en
Publication of JP2006024132A5 publication Critical patent/JP2006024132A5/ja
Application granted granted Critical
Publication of JP4498040B2 publication Critical patent/JP4498040B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Description

本発明は、斜光環境下において撮影装置で撮影された人物肌領域を含む画像を補正するための画像処理方法及び装置に関する。   The present invention relates to an image processing method and apparatus for correcting an image including a human skin region photographed by a photographing apparatus in an oblique light environment.

従来、撮影装置を用いて被写体を撮影する際に、その光源位置方向を光源検出手段を用いて検出し、推奨する撮影方向を指示する技術が知られている(例えば特許文献1参照。)。また、撮影後の画像に対して、画像全体の濃度を対象にした露出補正や、フィルムカメラの現像所において主な被写体と考えられる人物に対して濃度を最適化する現像等を行うことが知られている。
特開平08−160507号公報
2. Description of the Related Art Conventionally, a technique for detecting a light source position direction using a light source detection unit and instructing a recommended shooting direction when shooting a subject using a shooting device is known (see, for example, Patent Document 1). It is also known to perform exposure correction on the density of the entire image and development that optimizes the density of a person who is considered to be the main subject at the film camera development station. It has been.
Japanese Patent Laid-Open No. 08-160507

一般に、斜光状態の傾向が強い場合に撮影された画像の品位として受け入れられないものとして、被写体が人物の場合の画像であることが多い。しかしながら、上述したような光源を検出して撮影方向を指示するカメラは現市場において汎用化しておらず、斜光状態であるか否かにかかわらず被写体の撮影がされてしまい、人物画像が適切に撮影できない場合がある。   In general, when the subject is a person, it is often the case that the subject is not accepted as the quality of the photographed image when the tendency of the oblique light state is strong. However, cameras as described above that detect the light source and indicate the shooting direction are not widely used in the current market, and the subject is shot regardless of whether it is in a slanted state, so that the human image is appropriately displayed. Shooting may not be possible.

また、既に撮影済みの画像について、人物を中心とした露出補正によってある程度の改善は見られる場合もある。しかしながら、斜光環境下による輝度分布に対して露出補正をして平均値を適正化した場合であっても、実際の人物肌領域が部分的に白飛びしたり、潰れたりして、当該補正が適切にされていないような場合が多くみられる。   In addition, there is a case where a certain degree of improvement can be seen for an already shot image by exposure correction centered on a person. However, even when the exposure correction is performed on the luminance distribution in the oblique light environment and the average value is optimized, the actual human skin area is partially blown out or crushed, and the correction is not performed. There are many cases where this is not done properly.

本発明は、このような事情を考慮してなされたものであり、撮影された画像中に含まれる中心的な被写体に対してその品位を損なうことなく当該画像の適正な補正を行うことができる画像処理方法及び装置を提供することを目的とする。   The present invention has been made in consideration of such circumstances, and can appropriately correct the image of the central subject included in the photographed image without losing its quality. An object of the present invention is to provide an image processing method and apparatus.

上記課題を解決するために、本発明に係る画像処理方法は、
撮像装置により撮像された画像を取得する取得工程と、
前記画像から被写体の肌領域を抽出する抽出工程と、
前記肌領域の画像データを解析する解析工程と、
前記画像データの解析結果に基づいて前記被写体が斜光状態で撮影されたか否かを判定する判定工程と
を有することを特徴とする。
In order to solve the above problems, an image processing method according to the present invention includes:
An acquisition step of acquiring an image captured by the imaging device;
An extraction step of extracting the skin area of the subject from the image;
An analysis step of analyzing the image data of the skin region;
And a determination step of determining whether or not the subject has been photographed in an oblique state based on the analysis result of the image data.

また、上記課題を解決するために、本発明に係る画像処理装置は、
撮像装置により撮像された画像を取得する取得手段と、
前記画像から被写体の肌領域を抽出する抽出手段と、
前記肌領域の画像データを解析する解析手段と、
前記画像データの解析結果に基づいて前記被写体が斜光状態で撮影されたか否かを判定する判定手段と
を備えることを特徴とする。
In order to solve the above problems, an image processing apparatus according to the present invention includes:
Acquisition means for acquiring an image captured by the imaging device;
Extraction means for extracting a skin area of the subject from the image;
Analyzing means for analyzing the image data of the skin region;
And determining means for determining whether or not the subject has been photographed in an oblique state based on the analysis result of the image data.

本発明によれば、撮影された画像中に含まれる中心的な被写体に対してその品位を損なうことなく当該画像の適正な補正を行うことができる。すなわち、斜光状態で人物を撮影した人物画像に対して、従来は、その被写体である人物の肌領域の輝度分布を解析しても、領域の輝度平均値を用いて行う露出補正では、その対象領域内で白跳びや潰れ等の発生を抑えることが不可能であったが、本発明によれば、光源からの受光状態、具体的には画像データ解析して斜光の判定を加味することで、より高品位な画像補正を提供することが可能となる。   According to the present invention, it is possible to appropriately correct an image of the central subject included in the photographed image without impairing the quality of the subject. In other words, for a human image obtained by photographing a person in an oblique light state, conventionally, even if the luminance distribution of the skin area of the person who is the subject is analyzed, the exposure correction performed using the average luminance value of the area is the target. Although it has been impossible to suppress the occurrence of whiteout or crushing in the area, according to the present invention, the light reception state from the light source, more specifically, by analyzing the image data and taking the determination of oblique light into account, Therefore, it is possible to provide higher-quality image correction.

以下、図面を参照して、本発明の一実施形態に係る画像処理装置を用いた画像処理方法について詳細に説明する。   Hereinafter, an image processing method using an image processing apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings.

図11は、本発明の一実施形態に係る画像処理装置の構成を示すブロック図である。図11に示すように、本実施形態に係る画像処理装置は、いわゆるパーソナルコンピュータと同様の構成を用いて達成される。   FIG. 11 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention. As shown in FIG. 11, the image processing apparatus according to the present embodiment is achieved using a configuration similar to a so-called personal computer.

具体的には、本実施形態に係る画像処理装置は、データが入出力される入出力ポート(I/O port)51と、ポインティングデバイスであるマウス52と、数値や文字等を入力するキーボード53と、種々の表示を行うためのモニタ54と、装置全体の動作を制御する制御部(Controller)55と、メモリカードに記録された画像データを読み出すメモリカードドライブ56と、データやプログラムを記憶するハードディスク57と、上記各部を互いに接続するバス58とを備える。   Specifically, the image processing apparatus according to the present embodiment includes an input / output port (I / O port) 51 through which data is input / output, a mouse 52 that is a pointing device, and a keyboard 53 that inputs numerical values, characters, and the like. A monitor 54 for performing various displays, a controller 55 for controlling the operation of the entire apparatus, a memory card drive 56 for reading image data recorded on the memory card, and data and programs are stored. A hard disk 57 and a bus 58 for connecting the above-described units to each other are provided.

モニタ54としては、例えば液晶モニタ、CRTモニタ、ELディスプレイ、プラズマディスプレイ、テレビジョン受像機等の各種表示装置を用いることができる。或いは、マウス52、キーボード53及びモニタ54の各機能を備えた、いわゆるタッチパネルを用いてもよい。   As the monitor 54, for example, various display devices such as a liquid crystal monitor, a CRT monitor, an EL display, a plasma display, and a television receiver can be used. Or you may use what is called a touch panel provided with each function of the mouse | mouth 52, the keyboard 53, and the monitor 54. FIG.

制御部55は、マウス52やキーボード53からの入力に基づいて、入出力ポート51、或いはメモリカードドライブ56において読み出された画像データに対する各種処理を行う。   The control unit 55 performs various processes on the image data read by the input / output port 51 or the memory card drive 56 based on the input from the mouse 52 or the keyboard 53.

尚、本実施形態においては、画像処理装置を実現する装置としてパーソナルコンピュータを例に挙げて説明を行うが、画像データを処理可能な装置であれば、画像を扱うマルチファンクションプリンタ(MFP)やフォトダイレクトプリンタ(FDP)等のパーソナルコンピュータ以外の機器への組み込み機器等であっても同様の実施形態が考えられる。   In this embodiment, a personal computer will be described as an example of an apparatus that implements an image processing apparatus. However, any apparatus capable of processing image data may be a multifunction printer (MFP) or photo processor that handles images. A similar embodiment is conceivable even for a built-in device in a device other than a personal computer such as a direct printer (FDP).

図1は、本発明の一実施形態に係る画像処理装置における画像処理の全体の流れを説明するためのフローチャートである。まず、図11に示される画像処理装置の入出力ポート51、メモリカードドライブ56において読み出された画像データ、或いはハードディスク57に保存されている画像データをマウス52やキーボード53からの入力操作に基づいて取得する(ステップS101)。   FIG. 1 is a flowchart for explaining the overall flow of image processing in an image processing apparatus according to an embodiment of the present invention. First, the image data read out by the input / output port 51 and the memory card drive 56 of the image processing apparatus shown in FIG. (Step S101).

次に、ステップS101で取得された画像データを展開し、その一連の作業中に後の処理に必要な画像関連データを取得する(ステップS102)。関連データとしては、注目画像領域の特徴抽出に必要なものが含まれている。   Next, the image data acquired in step S101 is expanded, and image-related data necessary for subsequent processing is acquired during the series of operations (step S102). The related data includes data necessary for feature extraction of the target image area.

次いで、展開された画像データに対する特徴領域の抽出処理を行う(ステップS103)。例えば、登録されている特徴領域の定義が画像中の主要人物肌領域である場合は、入退室管理や監視システムとして動画を含む画像の中に人物の顔領域を検出する処理方法等が知られている。そして、人物肌又は顔領域の特徴判定を行って、合致した領域を抽出する。   Next, feature region extraction processing is performed on the developed image data (step S103). For example, when the definition of the registered feature area is the main person skin area in the image, a processing method for detecting a person's face area in an image including a moving image is known as an entrance / exit management or monitoring system. ing. Then, the human skin or face area is subjected to feature determination, and the matched area is extracted.

さらに、ステップS103において抽出した人物肌領域の輝度分布状況等の特徴から、撮影された人物への光源状況と斜光状況下での撮影状態レベルとの特徴差を判定する(ステップS104)。ここで、斜光とは、被写体に対する光源の方向が斜め方向であることをいう。例えば、人の顔等の起伏のある被写体の場合、斜光状況では陰が発生し、良好な撮影状況ではない。そのため、一般的に人物を被写体とする時は薄曇のような均一な光源下での撮影が好ましいとされ、極端な輝度分布の発生する斜光状況下での人の顔撮影は特殊な用途を除いて好ましい撮影結果は得られない。そこで、本ステップにおいては、被写体として抽出した人物肌領域の輝度分布の特徴量を閾値として利用して斜光レベルを判定する。尚、当該処理の詳細については後述する。   Further, the characteristic difference between the light source state for the photographed person and the photographing state level under the oblique light condition is determined from the characteristics such as the luminance distribution state of the human skin region extracted in step S103 (step S104). Here, the oblique light means that the direction of the light source with respect to the subject is an oblique direction. For example, in the case of an undulating subject such as a person's face, shadows occur in a slanting situation, which is not a good photographing situation. For this reason, it is generally considered preferable to shoot under a uniform light source such as cloudy when taking a person as a subject, and human face shoots under oblique light conditions where extreme luminance distribution occurs except for special applications Therefore, it is not possible to obtain a preferable shooting result. Therefore, in this step, the oblique light level is determined using the feature value of the luminance distribution of the human skin region extracted as the subject as a threshold value. Details of the processing will be described later.

次いで、ステップS103とステップS104において検出し判定した結果に基づいて、初期設定の画像補正に対して、抽出データによる特徴量に起因した補正指示を設定する(ステップS105)。本実施形態では、その設定内容として、例えば通常の画像補正(コントラスト、ホワイトバランス、露出補正、シャープネス、彩度等)処理に対して、初期設定以外の補正量を必要とする項目についてのみ指示量を作成する。   Next, based on the results detected and determined in step S103 and step S104, a correction instruction due to the feature amount based on the extracted data is set for the initial image correction (step S105). In the present embodiment, as the setting contents, for example, for normal image correction (contrast, white balance, exposure correction, sharpness, saturation, etc.) processing, only the instruction amount for items that require a correction amount other than the initial setting Create

そして、ステップS105において指示がされたか否かを確認し、指示がある場合は画像補正の効果量に対する初期設定値に対して、指示量を反映する形に置き換えて、画像補正を実行する(ステップS106)。   Then, it is confirmed whether or not an instruction is given in step S105. If there is an instruction, the initial set value for the image correction effect quantity is replaced with a form that reflects the instruction quantity and image correction is executed (step S106).

このように、本実施形態においては、斜光判定の判定レベルにより検出した肌領域への露出補正量の最適化への目標値に対して斜光判定レベルが高い時には目標値の緩和を行い、検出した肌領域が白飛びしたり、潰れるような画像補正にならないようにすることができる。   As described above, in the present embodiment, when the oblique light determination level is higher than the target value for optimizing the exposure correction amount to the skin area detected by the oblique light determination level, the target value is relaxed and detected. It is possible to prevent image correction such that the skin area is overexposed or crushed.

図12は、ステップS104における抽出領域の特徴判定処理の詳細を説明するためのフローチャートである。まず、ステップS103において、画像中に人物肌領域の有無情報を含む特徴量データが発生しているかを判定する(ステップS1201)。この処理は、画像補正の初期設定利用形態に対して、それとは違う補正初期設定強度を設定することで、より画像品質が良好になると考えられる特徴量が画像中にあることが検出された場合に画像補正の初期設定量とは違う値を指示するものである。   FIG. 12 is a flowchart for explaining details of the extraction region feature determination processing in step S104. First, in step S103, it is determined whether or not feature amount data including presence / absence information of a human skin region is generated in the image (step S1201). This processing is performed when it is detected that the image has a feature quantity that is considered to improve the image quality by setting a different correction initial setting intensity for the image correction initial setting usage form. A value different from the initial set amount for image correction is indicated.

その結果、人物肌領域が存在しない場合(No)には、本斜光判定処理を終了する。一方、画像中に人物肌領域が存在するとした結果を得た場合(Yes)は、ステップS1202へ進む。   As a result, when the human skin region does not exist (No), the oblique light determination process is terminated. On the other hand, if a result indicating that a human skin area exists in the image is obtained (Yes), the process proceeds to step S1202.

次に、ステップS1202以下の処理について、図2と図6に示すサンプル画像を用いて説明する。図2は、被写体である人物の顔がやや暗めに撮影されたサンプル画像Aである。図2で示すサンプル画像Aの撮影環境としては、例えば薄曇のような一様な光源下で撮影されている。また、図6は、被写体である人物が画像中央に配置された構図で撮影されたサンプル画像Bである。尚、図6に示すサンプル画像Bの光源としては、被写体の左斜めから直射日光が照射された環境(すなわち、斜光環境)である。   Next, the processing after step S1202 will be described using the sample images shown in FIGS. FIG. 2 is a sample image A in which the face of a person as a subject is photographed slightly dark. As a photographing environment of the sample image A shown in FIG. 2, the photographing is performed under a uniform light source such as a light cloud. FIG. 6 is a sample image B taken with a composition in which the person who is the subject is arranged in the center of the image. Note that the light source of the sample image B shown in FIG. 6 is an environment in which direct sunlight is irradiated from the diagonal left of the subject (that is, an oblique light environment).

そして、斜光判定に必要な情報をステップS103で抽出した結果より取得する(ステップS1202)。本特徴判定処理においては、抽出した肌領域の輝度平均値と各画素ごとの輝度データを少なくとも取得する。尚、輝度データのみならず他の彩度データや色相データに適当な重みをつけて考慮した特徴量画像データを用いても良い。即ち、輝度データのみではなく他の画像データ(サンプル画像の画像データ)そのものを用いても良い。そして、ステップS1202で取得されたデータより、斜光判定を実施するためのデータ解析処理を行う(ステップS1203)。図13は、ステップS1203における取得データの解析処理を詳細に説明するためのフローチャートである。   Then, information necessary for the oblique light determination is acquired from the result extracted in step S103 (step S1202). In the feature determination process, at least the luminance average value of the extracted skin region and the luminance data for each pixel are acquired. It should be noted that feature amount image data in which not only luminance data but also other saturation data and hue data are considered with appropriate weights may be used. That is, not only luminance data but also other image data (image data of a sample image) itself may be used. Then, data analysis processing for performing oblique light determination is performed from the data acquired in step S1202 (step S1203). FIG. 13 is a flowchart for explaining in detail the analysis processing of acquired data in step S1203.

まず、ステップS103で抽出して取得した人物肌領域の輝度ヒストグラムを作成する(ステップS1301)。図5は、図2に示すサンプル画像Aに対してステップS103で抽出して取得した人物肌領域を示す図である。図5で示される領域は、検出された人物肌領域を8×8画素単位で検出してグループ化後に判定し、色を付けて領域を区別するとよい。   First, a luminance histogram of the human skin region extracted and acquired in step S103 is created (step S1301). FIG. 5 is a diagram showing the human skin region extracted and acquired in step S103 for the sample image A shown in FIG. The area shown in FIG. 5 may be determined after grouping by detecting the detected human skin area in units of 8 × 8 pixels, and the area may be distinguished by adding a color.

また、図4は、ステップS103で抽出された人物肌領域に対比する部分の輝度平均値と各画素の輝度分布を輝度ヒストグラムで表した図である。図4の横軸は輝度であり、左端が「0」、右端が「255」の8ビットで表される。また、縦軸は、画素の分布を表している。図2及び図4からもわかるように、人物肌領域の輝度分布は124近辺を中心に正規分布に近い形でバランス良く分布している。   FIG. 4 is a diagram representing the luminance average value of the portion compared with the human skin region extracted in step S103 and the luminance distribution of each pixel as a luminance histogram. The horizontal axis in FIG. 4 represents luminance, which is represented by 8 bits with “0” at the left end and “255” at the right end. The vertical axis represents the pixel distribution. As can be seen from FIGS. 2 and 4, the luminance distribution of the human skin region is distributed in a well-balanced manner around the vicinity of 124 and close to the normal distribution.

次に、図6に示すサンプル画像Bを用いて説明する。図9は、図6に示すサンプル画像Bに対してステップS103で抽出して取得した人物肌領域を示す図である。図9で示される領域は、検出された人物肌領域を8×8画素単位で検出してグループ化後に判定し、例えば色を付けて領域を区別するとよい。   Next, a description will be given using the sample image B shown in FIG. FIG. 9 is a diagram showing the human skin region extracted and acquired in step S103 for the sample image B shown in FIG. The area shown in FIG. 9 may be determined after grouping by detecting the detected human skin area in units of 8 × 8 pixels. For example, the area may be distinguished by adding a color.

また、図8は、ステップS103で抽出された人物肌領域に対比する部分の輝度平均値と各画素の輝度分布を輝度ヒストグラムで表した図である。図8の横軸は輝度であり、左端が「0」、右端が「255」の8ビットで表される。また、縦軸は、画素の分布を表している。図6及び図8からもわかるように、人物肌領域の輝度分布は人物肌領域の平均輝度は133であるが、分布としては高輝度部と低輝度部に2分されたようになっている。   FIG. 8 is a diagram showing a luminance histogram of the luminance average value of the portion compared with the human skin region extracted in step S103 and the luminance distribution of each pixel. The horizontal axis in FIG. 8 is the luminance, and is represented by 8 bits with “0” at the left end and “255” at the right end. The vertical axis represents the pixel distribution. As can be seen from FIGS. 6 and 8, the luminance distribution of the human skin region has an average luminance of 133 in the human skin region, but the distribution is divided into a high luminance portion and a low luminance portion. .

このように輝度ヒストグラムを作成した後、検出した人物肌領域(抽出領域)の輝度平均値を算出する(ステップS1302)。そして、検出した人物肌領域の輝度平均値より例えば上下25%及び30%以上離れた輝度データ領域について検出し、その検出領域と人物肌領域の全体との面積比率をそれぞれ算出する(ステップS1303)。   After creating the brightness histogram in this way, the brightness average value of the detected human skin area (extraction area) is calculated (step S1302). Then, for example, luminance data regions that are 25% or more and 30% or more away from the luminance average value of the detected human skin region are detected, and the area ratio between the detection region and the entire human skin region is calculated (step S1303). .

上述したように、本実施形態における画像の解析処理は、人物肌領域への光源の照射が斜光状態であるかを判定するためのものであるので、算出した輝度ヒストグラムの分布をもとに輝度平均と、当該輝度平均より25%以上若しくは25%以下の輝度領域、及び30%以上若しくは30%以下の輝度領域をそれぞれ算出し、対象としている人物肌領域に占める面積比率をそれぞれ算出する。   As described above, the image analysis processing in the present embodiment is for determining whether the illumination of the light source to the human skin region is in a slanted state, so that the luminance is calculated based on the distribution of the calculated luminance histogram. An average, a luminance region of 25% or more or 25% or less from the luminance average, and a luminance region of 30% or more or 30% or less from the luminance average are calculated, respectively, and an area ratio in the target human skin region is calculated.

このようにして取得データを解析した後、算出した輝度平均より30%以上外れた領域が、対象となっている全人物肌領域の30%以上の面積比率を占めているか否かの判定を行う(ステップS1204)。その結果、当該判定に合致する場合(Yes)は、ステップS1205へ移行する。   After analyzing the acquired data in this way, it is determined whether or not an area that is 30% or more out of the calculated luminance average occupies an area ratio of 30% or more of all target human skin areas. (Step S1204). As a result, when the determination is met (Yes), the process proceeds to step S1205.

ステップS1205では、被写体である画像中の人物は強い斜光状態の環境光下で撮影されたと判断し、判定用メモリ領域である「斜光度レベル」に一番確信をもつ「レベル1」をセットする。そして、セットし終えた後は、当該処理(ステップS104)を終了して画像補正へ移行する。   In step S1205, it is determined that the person in the image that is the subject was shot under strong ambient light, and “level 1” having the most certainty is set in the “slope intensity level” that is the determination memory area. . Then, after the setting is completed, the processing (step S104) is terminated and the process proceeds to image correction.

一方、ステップS1204において判定に合致しなかった場合(No)は、ステップS1206へ移行する。ステップS1206では、ステップS1204において、算出した輝度平均より25%以上外れた領域が、対象となっている全人物肌領域の25%以上の面積比率を占めているか否かの判定を行う。その結果、当該判定に合致する場合(Yes)は、ステップS1207へ移行する。   On the other hand, if the determination does not match in step S1204 (No), the process proceeds to step S1206. In step S1206, it is determined whether or not an area that is 25% or more out of the brightness average calculated in step S1204 occupies an area ratio of 25% or more of all target human skin areas. As a result, if the determination matches (Yes), the process proceeds to step S1207.

ステップS1207においては、被写体である画像中の人物は弱い斜光状態の環境光下で撮影された物として判断し、判定用メモリ領域である「斜光度レベル」にある程度の斜光状態と判断して「レベル2」をセットする。そして、セットし終えた後は、本処理(ステップS104)を終了して画像補正へ移行する。一方、ステップS1206ステップにおいて判定に合致しなかった場合(No)は、本処理(ステップS104)を終了して画像補正へ移行する。   In step S1207, it is determined that the person in the image that is the subject is photographed under a weak oblique light environment light, and the “oblique light level” that is the determination memory area is determined to be a certain oblique light state. Level 2 ”is set. Then, after the setting is completed, the present process (step S104) is terminated and the process proceeds to image correction. On the other hand, if the determination in step S1206 does not match the determination (No), the process ends (step S104) and the process proceeds to image correction.

本実施形態においては、検出判定処理を軽くするために、上述のように輝度分布の判断として領域の輝度平均と平均値からの比率による閾値を設け、その閾値より離れた領域の量により斜光状態の判定を行った。しかし、判定方法はこれだけに限られず、例えば、高輝度と低輝度の差により行うこともでき、或いは、標準偏差を利用した分布判定も考えられる。   In this embodiment, in order to lighten the detection determination process, as described above, a threshold value based on the ratio of the average luminance of the region and the ratio from the average value is set as the determination of the luminance distribution. Judgment was made. However, the determination method is not limited to this, and for example, it can be performed based on a difference between high luminance and low luminance, or distribution determination using standard deviation is also conceivable.

次に、ステップS104で画像中の人物肌領域に対して行った斜光判定をステップS105以降の画像補正処理へ反映する実施形態について説明する。画像補正処理においては、一般的に、1)ホワイトバランス、2)コントラスト、3)露出、4)彩度、5)シャープネス等の補正処理がその項目として考えられる。   Next, an embodiment will be described in which the oblique light determination performed on the human skin region in the image in step S104 is reflected in the image correction processing after step S105. In image correction processing, correction items such as 1) white balance, 2) contrast, 3) exposure, 4) saturation, and 5) sharpness are generally considered as items.

本実施形態においては、3)露出への補正を実施した内容について説明する。まず、露出補正の動作の一例を説明する。   In the present embodiment, 3) the contents of exposure correction will be described. First, an example of the exposure correction operation will be described.

図15は、本発明の一実施形態に係る画像処理装置で使用される露出補正量決定テーブルの一例を示す図である。図15では、横軸は、入力画像の輝度平均(AVE)を0から255の範囲で表したものであり、縦軸は、変換後の輝度平均値の目標値(NAVE)を0から255の範囲で表したものである。   FIG. 15 is a diagram showing an example of an exposure correction amount determination table used in the image processing apparatus according to an embodiment of the present invention. In FIG. 15, the horizontal axis represents the luminance average (AVE) of the input image in the range from 0 to 255, and the vertical axis represents the target value (NAVE) of the luminance average value after conversion from 0 to 255. It is expressed as a range.

ここで、NAVEの値を図15の変換テーブルより入力画像の輝度平均(AVE)ごとに求め、その結果から図16に示すテーブルを作成する。図16は、本発明の一実施形態に係る露出補正用のルックアップテーブルの一例を示す図である。   Here, the value of NAVE is obtained for each luminance average (AVE) of the input image from the conversion table of FIG. 15, and the table shown in FIG. 16 is created from the result. FIG. 16 is a diagram showing an example of a lookup table for exposure correction according to an embodiment of the present invention.

図16に示すテーブルの作成手順は、まず、横軸の0から255の間に入力画像の輝度平均(AVE=A)値をプロットする。次いで、縦軸の0から255の間に変換後の輝度平均値の目標値(NAVE=NA)をプロットする。そして、プロット点より垂直に互いの交点を探し出し、その点と点(0,0)及び点(255,255)とを図16に示すように結んで変換テーブルを作成する。そして、この変換テーブルを用いることで、画像全体の輝度値を希望する値へ変換することが可能となる。   The table creation procedure shown in FIG. 16 first plots the luminance average (AVE = A) value of the input image between 0 and 255 on the horizontal axis. Subsequently, the target value (NAVE = NA) of the luminance average value after conversion is plotted between 0 and 255 on the vertical axis. Then, the intersection points are searched for vertically from the plot points, and the conversion table is created by connecting the points (0, 0) and (255, 255) as shown in FIG. By using this conversion table, it is possible to convert the luminance value of the entire image into a desired value.

図3及び図7は、それぞれ図2及び図6に示すサンプル画像A、Bに対して本実施形態に係る露出補正処理を行って人物肌領域を検出し、その輝度平均値を用いた画像補正処理の結果を示す図である。   3 and 7 detect the human skin region by performing the exposure correction processing according to the present embodiment on the sample images A and B shown in FIGS. 2 and 6, respectively, and perform image correction using the luminance average value thereof. It is a figure which shows the result of a process.

まず、図3について説明する。図2に示すサンプル画像Aに対する人物肌領域検出の結果として、平均輝度が「124」の値を取得し、領域の輝度分布を算出すると、124に対して30%以上離れている輝度としては、輝度86以下若しくは輝度162以上の領域となる。また、25%以上離れている輝度としては、輝度93以下若しくは輝度155以上の領域となる。   First, FIG. 3 will be described. As a result of human skin area detection for the sample image A shown in FIG. 2, when the average brightness is acquired as a value of “124” and the brightness distribution of the area is calculated, The region has a luminance of 86 or less or a luminance of 162 or more. Further, the luminance that is 25% or more away is an area having a luminance of 93 or less or a luminance of 155 or more.

その結果、算出した輝度ヒストグラムより輝度が86以下の部分領域は0%、輝度162以上の部分領域は2.5%となり、「斜光度レベル」判断において「レベル1」は該当しない。さらに、輝度が93以下の部分領域は0%、輝度155以上の部分領域は4.8%となり、「斜光度レベル」判断において「レベル2」も該当しない。従って、図2に示すサンプル画像Aでは人物肌を検出した結果、斜光状態ではないと判断し、検出した肌領域の輝度平均値を目標輝度へ露出補正処理を行うことになる。   As a result, from the calculated luminance histogram, the partial area having a luminance of 86 or less is 0%, and the partial area having a luminance of 162 or more is 2.5%, and “level 1” is not applicable in the “obliqueness level” determination. Furthermore, the partial area with a luminance of 93 or less is 0%, and the partial area with a luminance of 155 or more is 4.8%. Therefore, in the sample image A shown in FIG. 2, it is determined that the human skin is not in the obliquely lighted state as a result of detecting human skin, and exposure correction processing is performed on the detected brightness average value of the skin area to the target brightness.

次いで、図14について説明する。図14は、本発明の一実施形態における画像露出補正に用いられる目標輝度値設定用グラフを示す図である。前述したように、図15及び図16のテーブルを用いた露出補正において人物肌領域を検出した場合は、図14に示すグラフを用いて露出補正目標値を変更する。露出補正目標値は、図15を用いて説明したようにNAVEを設定するが、人物肌領域が画像中に検出すると、丸印が結ばれた直線に従って目標設定値を設定する。具体的には、肌領域の検出平均輝度値が60の場合は、NAVEは輝度平均の1.8倍の値に設定する。また、肌領域の検出平均輝度値が180の場合は、NAVEは輝度平均の1.2倍の値に設定する。   Next, FIG. 14 will be described. FIG. 14 is a diagram showing a target luminance value setting graph used for image exposure correction in one embodiment of the present invention. As described above, when the human skin area is detected in the exposure correction using the tables of FIGS. 15 and 16, the exposure correction target value is changed using the graph shown in FIG. The exposure correction target value is set to NAVE as described with reference to FIG. 15, but when a human skin area is detected in the image, the target set value is set according to a straight line connected with circles. Specifically, when the detected average luminance value of the skin area is 60, NAVE is set to a value 1.8 times the average luminance. When the detected average luminance value of the skin region is 180, NAVE is set to a value that is 1.2 times the average luminance.

ここで、図2に示すサンプル画像Aでは、検出した人物肌領域の平均輝度が124であるため、NAVEは平均輝度値の約1.4となる。このように設定したNAVEを用いた露出補正目標値を含む総合的な画像補正の結果として図3に示す画像が得られる。   Here, in the sample image A shown in FIG. 2, since the average luminance of the detected human skin region is 124, NAVE is about 1.4 of the average luminance value. The image shown in FIG. 3 is obtained as a result of the comprehensive image correction including the exposure correction target value using the NAVE set as described above.

図17は、図3に示す画像中における人物肌領域の輝度ヒストグラムを示す図である。図17から、人物肌領域の平均輝度が165に上がり、良好な状態になっていることを確認することができる。   FIG. 17 is a diagram showing a luminance histogram of the human skin region in the image shown in FIG. From FIG. 17, it can be confirmed that the average luminance of the human skin area has increased to 165 and is in a good state.

次に、図7の画像について説明する。図6に示したサンプル画像Bの人物肌領域検出の結果として、平均輝度が133の値を取得し、領域の輝度分布を算出すると、133から30%以上離れている輝度として、輝度93以下若しくは輝度173以上の領域となる。また、25%以上離れている輝度としては、輝度100以下若しくは輝度167以上の領域となる。   Next, the image in FIG. 7 will be described. As a result of human skin area detection of the sample image B shown in FIG. 6, when the average luminance is acquired as a value of 133 and the luminance distribution of the area is calculated, the luminance is 93 or less or The region has a luminance of 173 or higher. Further, the luminance that is 25% or more away is an area having a luminance of 100 or less or a luminance of 167 or more.

そして、算出した輝度ヒストグラムより、輝度が93以下の部分領域は42.4%、輝度173以上の部分領域は25.2%となり、「斜光度レベル」判断において「レベル1」が該当する。従って、図6に示すサンプル画像Bは、人物肌を含んだ画像であり、かつ、激しい斜光状態であると判断される。   From the calculated luminance histogram, the partial area with the luminance of 93 or less is 42.4%, the partial area with the luminance of 173 or more is 25.2%, and “level 1” corresponds to the “obliqueness level” determination. Therefore, the sample image B shown in FIG. 6 is an image including human skin and is determined to be in a severe oblique light state.

そして、検出された肌領域の輝度平均値及び図14に示す目標輝度値設定用グラフを用いることで、通常であれば1.35倍程度の露出目標値が三角形の印で表した斜光レベル1での目標設定になるので、1.2倍程度の掛け率となる。そして、その後は図2のサンプル画像を用いて上述した手順と同等の処理を実行する。尚、図7は、斜光判定を用いない場合の人物肌領域の平均値を用いた画像補正を行った結果の画像である。   Then, by using the detected luminance average value of the skin region and the target luminance value setting graph shown in FIG. 14, the oblique light level 1 in which an exposure target value of about 1.35 times is represented by a triangle mark in the normal case. Therefore, the multiplication rate is about 1.2 times. Thereafter, processing equivalent to the above-described procedure is executed using the sample image of FIG. FIG. 7 shows an image obtained as a result of image correction using the average value of the human skin region when the oblique light determination is not used.

図10は、本発明の一実施形態に係る平均輝度による補正処理後の人物肌領域の輝度ヒストグラムを示す図である。図10において、横軸は輝度であり、左端が「0」、右端が「255」の8ビットで表される。また、縦軸は、画素の分布を表している。図10と図8を比較しても明らかなように、補正後の画像は、図8に示す原画像の人物肌領域における輝度分布よりコントラストが強くなっていることがわかる。特に、高輝度領域においては、輝度値が230近辺まで上昇することにより、肌自体が白跳び状態に近くなっている。   FIG. 10 is a diagram showing a luminance histogram of the human skin region after the correction process using the average luminance according to the embodiment of the present invention. In FIG. 10, the horizontal axis represents luminance, and is represented by 8 bits with “0” at the left end and “255” at the right end. The vertical axis represents pixel distribution. As is apparent from a comparison between FIG. 10 and FIG. 8, it can be seen that the corrected image has a stronger contrast than the luminance distribution in the human skin region of the original image shown in FIG. In particular, in the high luminance region, the skin itself is close to a whiteout state as the luminance value rises to around 230.

上述したように、本実施形態に係る斜光判定を用いて露出補正へ反映することで、白跳び等の人物肌領域における品質の低下を発生させないように人物肌領域への最適補正が可能となった。また、本実施形態においては、露出補正における高輝度部への対応を例として示しているが、人物肌への輝度分布解析による判定を用いることで、低輝度域への最適化はもちろんのこと、コントラスト補正等の画像補正の各項目に対する目標指示が可能となることは言うまでもない。   As described above, by using the oblique light determination according to the present embodiment and reflecting it in exposure correction, it is possible to perform optimal correction to the human skin area so as not to cause deterioration in quality in the human skin area such as whiteout. It was. In this embodiment, the correspondence to the high luminance part in the exposure correction is shown as an example, but by using the determination based on the luminance distribution analysis on the human skin, the optimization to the low luminance region is possible. Needless to say, it is possible to specify a target for each item of image correction such as contrast correction.

さらに、本実施形態では、撮影後の画像データをパーソナルコンピュータ等の情報処理装置で観察若しくは印刷等の対象として利用する場合に、画像ごとに補正処理を行ったものを利用するが、画像全般領域への重要度は一様ではなく、人物などが被写体として入っている場合は、その領域に重点を置いた補正を行うことで、より使用者が期待する画像を提供することができる。そして、この重要な領域の光源からの受光状態を輝度分布より斜光の判定を加味することで、より高品位な画像補正を提供することが可能となる。   Furthermore, in the present embodiment, when image data after shooting is used as an object for observation or printing in an information processing apparatus such as a personal computer, the image that has been corrected for each image is used. When a person or the like is included as a subject, an image more expected by the user can be provided by performing correction with emphasis on the area. Further, it is possible to provide higher-quality image correction by taking into account the light reception state from the light source in this important region by determining oblique light from the luminance distribution.

以上、実施形態例を詳述したが、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体(記録媒体)等としての実施態様をとることが可能であり、具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。   Although the embodiment has been described in detail above, the present invention can take an embodiment as, for example, a system, apparatus, method, program, or storage medium (recording medium). The present invention may be applied to a system composed of a single device or an apparatus composed of a single device.

尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図に示すフローチャートに対応したプログラム)を、システムあるいは装置に直接あるいは遠隔から供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。   In the present invention, a software program (in the embodiment, a program corresponding to the flowchart shown in the drawing) that realizes the functions of the above-described embodiment is directly or remotely supplied to the system or apparatus, and the computer of the system or apparatus Is also achieved by reading and executing the supplied program code.

従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.

プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などがある。   As a recording medium for supplying the program, for example, floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card ROM, DVD (DVD-ROM, DVD-R) and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   As another program supply method, a client computer browser is used to connect to an Internet homepage, and the computer program of the present invention itself or a compressed file including an automatic installation function is downloaded from the homepage to a recording medium such as a hard disk. Can also be supplied. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, the present invention includes a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせ、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. It is also possible to execute the encrypted program by using the key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   In addition to the functions of the above-described embodiments being realized by the computer executing the read program, the OS running on the computer based on the instruction of the program is a part of the actual processing. Alternatively, the functions of the above-described embodiment can be realized by performing all of the processes.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現される。   Furthermore, after the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion board or The CPU or the like provided in the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

本発明の一実施形態に係る画像処理装置における画像処理の全体の流れを説明するためのフローチャートである。6 is a flowchart for explaining the overall flow of image processing in the image processing apparatus according to the embodiment of the present invention; 被写体である人物の顔がやや暗めに撮影されたサンプル画像Aである。This is a sample image A in which the face of the person who is the subject is photographed slightly dark. 図2に示すサンプル画像Aに対して本実施形態に係る露出補正処理を行って人物肌領域を検出し、その輝度平均値を用いた画像補正処理の結果を示す図である。It is a figure which shows the result of the image correction process which performed the exposure correction process which concerns on this embodiment with respect to the sample image A shown in FIG. 2, detected a human skin area | region, and used the luminance average value. ステップS103で抽出された人物肌領域に対比する部分の輝度平均値と各画素の輝度分布を輝度ヒストグラムで表した図である。It is the figure which represented the luminance average value of the part contrasted with the human skin area | region extracted by step S103, and the luminance distribution of each pixel with the luminance histogram. 図2に示すサンプル画像Aに対してステップS103で抽出して取得した人物肌領域を示す図である。It is a figure which shows the person skin area | region extracted and acquired by step S103 with respect to the sample image A shown in FIG. 被写体である人物が画像中央に配置された構図で撮影されたサンプル画像Bである。It is a sample image B photographed with a composition in which a person as a subject is arranged in the center of the image. 図6に示すサンプル画像Bに対して本実施形態に係る露出補正処理を行って人物肌領域を検出し、その輝度平均値を用いた画像補正処理の結果を示す図である。It is a figure which shows the result of the image correction process which performed the exposure correction process which concerns on this embodiment with respect to the sample image B shown in FIG. 6, detected a human skin area | region, and used the luminance average value. ステップS103で抽出された人物肌領域に対比する部分の輝度平均値と各画素の輝度分布を輝度ヒストグラムで表した図である。It is the figure which represented the luminance average value of the part contrasted with the human skin area | region extracted by step S103, and the luminance distribution of each pixel with the luminance histogram. 図6に示すサンプル画像Bに対してステップS103で抽出して取得した人物肌領域を示す図である。It is a figure which shows the person skin area | region extracted and acquired by step S103 with respect to the sample image B shown in FIG. 本発明の一実施形態に係る平均輝度による補正処理後の人物肌領域の輝度ヒストグラムを示す図である。It is a figure which shows the brightness | luminance histogram of the person skin area | region after the correction process by the average brightness | luminance which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention. ステップS104における抽出領域の特徴判定処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the feature determination process of the extraction area | region in step S104. ステップS1203における取得データの解析処理を詳細に説明するためのフローチャートである。It is a flowchart for demonstrating in detail the analysis process of the acquisition data in step S1203. 本発明の一実施形態における画像露出補正に用いられる目標輝度値設定用グラフを示す図である。It is a figure which shows the graph for a target luminance value setting used for image exposure correction | amendment in one Embodiment of this invention. 本発明の一実施形態に係る画像処理装置で使用される露出補正量決定テーブルの一例を示す図である。It is a figure which shows an example of the exposure correction amount determination table used with the image processing apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る露出補正用のルックアップテーブルの一例を示す図である。It is a figure which shows an example of the look-up table for exposure correction | amendment which concerns on one Embodiment of this invention. 図3に示す画像中における人物肌領域の輝度ヒストグラムを示す図である。It is a figure which shows the brightness | luminance histogram of the person skin area | region in the image shown in FIG.

Claims (10)

画像処理装置の取得手段及び抽出手段及び解析手段及び判定手段の各手段が実行する画像処理方法であって、
前記取得手段が、撮像装置により撮像された画像を取得する取得工程と、
前記抽出手段が、前記画像から被写体の肌領域を抽出する抽出工程と、
前記解析手段が、前記肌領域の画像データを解析する解析工程と、
前記判定手段が、前記画像データの解析結果に基づいて前記被写体が斜光状態で撮影されたか否かを判定する判定工程とを有し、
前記解析工程が、前記被写体の肌領域のそれぞれの輝度値と該肌領域の輝度平均値との差が所定値以上の領域を算出し、該領域が前記肌領域に占める面積比率を算出し、
前記判定工程が、前記面積比率に応じて前記画像が撮影されたときの斜光状態の程度を判定する
ことを特徴とする画像処理方法。
An image processing method executed by each of an acquisition unit, an extraction unit, an analysis unit, and a determination unit of an image processing apparatus,
An acquisition step in which the acquisition means acquires an image captured by an imaging device;
An extracting step in which the extracting means extracts a skin area of a subject from the image;
An analyzing step in which the analyzing means analyzes the image data of the skin region;
The determination means, the object is closed and a determination step of determining whether taken with oblique lighting state based on the analysis result of the image data,
The analysis step calculates a region where the difference between the luminance value of each skin region of the subject and the luminance average value of the skin region is a predetermined value or more, and calculates the area ratio of the region in the skin region;
The image processing method characterized in that the determination step determines a degree of a slanting state when the image is taken according to the area ratio .
変更手段が、前記判定工程によって判定された前記画像の斜光状態の程度に基づいて、該画像を補正する際の補正目標値を変更する変更工程と、
補正手段が、前記変更工程により変更された前記補正目標値に従って前記画像を補正する補正工程と
をさらに有することを特徴とする請求項に記載の画像処理方法。
Change means, and a changing step of, based on the degree of oblique state of the image determined by the determining step, changes the correction target value at the time of correcting the image,
The image processing method according to claim 1 , further comprising: a correcting unit that corrects the image according to the correction target value changed by the changing step.
前記抽出工程が、前記被写体の肌領域として前記画像から人物の顔領域を抽出する
ことを特徴とする請求項1または2に記載の画像処理方法。
The extraction step, the image processing method according to claim 1 or 2, characterized in that extracts a face region of a person from the image as a skin region of the subject.
前記変更工程が、前記画像の露出を補正する際の露出補正目標値を変更し、
前記補正工程が、前記変更工程により変更された前記露出補正目標値に従って前記画像の露出を補正する
ことを特徴とする請求項に記載の画像処理方法。
The changing step changes an exposure correction target value when correcting the exposure of the image,
The image processing method according to claim 2 , wherein the correction step corrects the exposure of the image according to the exposure correction target value changed by the changing step.
撮像装置により撮像された画像を取得する取得手段と、
前記画像から被写体の肌領域を抽出する抽出手段と、
前記肌領域の画像データを解析する解析手段と、
前記画像データの解析結果に基づいて前記被写体が斜光状態で撮影されたか否かを判定する判定手段とを備え
前記解析手段が、前記被写体の肌領域のそれぞれの輝度値と該肌領域の輝度平均値との差が所定値以上の領域を算出し、該領域が前記肌領域に占める面積比率を算出し、
前記判定手段が、前記面積比率に応じて前記画像が撮影されたときの斜光状態の程度を判定す
ことを特徴とする画像処理装置。
Acquisition means for acquiring an image captured by the imaging device;
Extraction means for extracting a skin area of the subject from the image;
Analyzing means for analyzing the image data of the skin region;
Determination means for determining whether or not the subject was photographed in a slanting state based on the analysis result of the image data ,
The analysis means calculates a region where a difference between a luminance value of each skin region of the subject and a luminance average value of the skin region is a predetermined value or more, and calculates an area ratio of the region in the skin region;
The determining means, the image processing apparatus the image according to the area ratio is equal to or you determine the extent of the oblique state when taken.
前記判定手段によって判定された前記画像の斜光状態の程度に基づいて、該画像を補正する際の補正目標値を変更する変更手段と、
前記変更手段により変更された前記補正目標値に従って前記画像を補正する補正手段と
をさらに備えることを特徴とする請求項に記載の画像処理装置。
Changing means for changing a correction target value when correcting the image based on the degree of the oblique light state of the image determined by the determining means;
The image processing apparatus according to claim 5 , further comprising: a correcting unit that corrects the image according to the correction target value changed by the changing unit.
前記抽出手段が、前記被写体の肌領域として前記画像から人物の顔領域を抽出することを特徴とする請求項5または6に記載の画像処理装置。 The image processing apparatus according to claim 5 , wherein the extraction unit extracts a human face area from the image as the skin area of the subject. 前記変更手段が、前記画像の露出を補正する際の露出補正目標値を変更し、
前記補正手段が、前記変更手段により変更された前記露出補正目標値に従って前記画像の露出を補正する
ことを特徴とする請求項に記載の画像処理装置。
The changing means changes an exposure correction target value when correcting the exposure of the image,
The image processing apparatus according to claim 6 , wherein the correction unit corrects exposure of the image according to the exposure correction target value changed by the changing unit.
コンピュータに、
撮像装置により撮像された画像を取得する取得手順と、
前記画像から被写体の肌領域を抽出する抽出手順と、
前記肌領域の画像データを解析する解析手順と、
前記画像データの解析結果に基づいて前記被写体が斜光状態で撮影されたか否かを判定する判定手順とを実行させ
前記解析手順が、前記被写体の肌領域のそれぞれの輝度値と該肌領域の輝度平均値との差が所定値以上の領域を算出し、該領域が前記肌領域に占める面積比率を算出し、
前記判定手順が、前記面積比率に応じて前記画像が撮影されたときの斜光状態の程度を判定す
ためのプログラム。
On the computer,
An acquisition procedure for acquiring an image captured by the imaging device;
An extraction procedure for extracting the skin area of the subject from the image;
An analysis procedure for analyzing the image data of the skin region;
A determination procedure for determining whether or not the subject has been photographed in an oblique light state based on the analysis result of the image data ;
The analysis procedure calculates a region where the difference between each luminance value of the skin region of the subject and the average luminance value of the skin region is a predetermined value or more, and calculates an area ratio of the region in the skin region;
The determination procedure, a program for you determine the extent of the oblique state when the image is captured in accordance with the area ratio.
請求項に記載のプログラムを格納したことを特徴とするコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium storing the program according to claim 9 .
JP2004203702A 2004-07-09 2004-07-09 Image processing method and apparatus Expired - Fee Related JP4498040B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004203702A JP4498040B2 (en) 2004-07-09 2004-07-09 Image processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004203702A JP4498040B2 (en) 2004-07-09 2004-07-09 Image processing method and apparatus

Publications (3)

Publication Number Publication Date
JP2006024132A JP2006024132A (en) 2006-01-26
JP2006024132A5 JP2006024132A5 (en) 2007-08-23
JP4498040B2 true JP4498040B2 (en) 2010-07-07

Family

ID=35797340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004203702A Expired - Fee Related JP4498040B2 (en) 2004-07-09 2004-07-09 Image processing method and apparatus

Country Status (1)

Country Link
JP (1) JP4498040B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011078041A (en) * 2009-10-02 2011-04-14 Sanyo Electric Co Ltd Image processing apparatus and electronic camera

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084380A (en) * 1999-07-12 2001-03-30 Fuji Photo Film Co Ltd Method and device for estimating light source direction and recording medium
JP2002015322A (en) * 2000-06-29 2002-01-18 Nissan Motor Co Ltd Inattentive driving condition detection device
JP2004192129A (en) * 2002-12-09 2004-07-08 Fuji Photo Film Co Ltd Method and device for extracting facial area

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3018914B2 (en) * 1994-08-23 2000-03-13 松下電器産業株式会社 Gradation correction device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084380A (en) * 1999-07-12 2001-03-30 Fuji Photo Film Co Ltd Method and device for estimating light source direction and recording medium
JP2002015322A (en) * 2000-06-29 2002-01-18 Nissan Motor Co Ltd Inattentive driving condition detection device
JP2004192129A (en) * 2002-12-09 2004-07-08 Fuji Photo Film Co Ltd Method and device for extracting facial area

Also Published As

Publication number Publication date
JP2006024132A (en) 2006-01-26

Similar Documents

Publication Publication Date Title
JP4519708B2 (en) Imaging apparatus and method, and program
US7358994B2 (en) Image processing apparatus, image processing method, recording medium thereof, and program thereof
JP5032911B2 (en) Image processing apparatus and image processing method
US8665347B2 (en) Image processing device, image processing program, and imaging device computing brightness value and color phase value
US8994857B2 (en) Camera flash mitigation
JP4834725B2 (en) Method and apparatus for incorporating iris color in red-eye correction
KR101594258B1 (en) APPARATUS AND METHOD FOR CORRECTING AND CONTROLLING IMAGE of camera using color/light sensor
US7916963B2 (en) Method and apparatus for an intuitive digital image processing system that enhances digital images
JP2006217082A (en) Image pickup device, method of setting observation condition parameter thereof, and program
JP2007158824A (en) Image processor, flesh tone adjusting method, and program
US6822690B2 (en) Image processing apparatus, image pickup apparatus, and image processing method capable of eliminating effect of outside light
US10043098B2 (en) Method of detecting color object by using noise and system for detecting light emitting apparatus by using noise
JP2003337944A (en) Image processor, host unit for image processing, image processing method, and computer-readable storage medium
JP4498040B2 (en) Image processing method and apparatus
US8358353B2 (en) Image input apparatus, image verification apparatus, and control methods therefor
JP2005346474A (en) Image processing method and image processor and program and storage medium
JP4018524B2 (en) Image processing method, apparatus, and program
JP2005269451A (en) Image processing apparatus, image processing method and program
WO2006033235A1 (en) Image processing method, image processing device, imaging device, and image processing program
US11681397B2 (en) Position detection system, position detection apparatus, and position detection method
JP2007048108A (en) Image evaluation system, image evaluation method and image evaluation program
JP2008147714A (en) Image processor and image processing method
JP4795314B2 (en) Flicker correction apparatus and flicker correction method
JP2005142745A (en) Image processing program, image processing method, and recording medium
WO2024042976A1 (en) Image generation method, image file creating method, and image generation device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070706

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070706

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20070706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100409

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100413

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140423

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees