JP2005294917A - Digital camera for extracting face - Google Patents

Digital camera for extracting face Download PDF

Info

Publication number
JP2005294917A
JP2005294917A JP2004102935A JP2004102935A JP2005294917A JP 2005294917 A JP2005294917 A JP 2005294917A JP 2004102935 A JP2004102935 A JP 2004102935A JP 2004102935 A JP2004102935 A JP 2004102935A JP 2005294917 A JP2005294917 A JP 2005294917A
Authority
JP
Japan
Prior art keywords
skin color
image
digital camera
face
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004102935A
Other languages
Japanese (ja)
Other versions
JP4335727B2 (en
Inventor
Manabu Hyodo
学 兵藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2004102935A priority Critical patent/JP4335727B2/en
Publication of JP2005294917A publication Critical patent/JP2005294917A/en
Application granted granted Critical
Publication of JP4335727B2 publication Critical patent/JP4335727B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a digital camera for properly extracting a face by excluding an object whose hue is similar to that of the face. <P>SOLUTION: The digital camera 10 images a field in which a layout auxiliary frame is set so as to include people, and generates an image signal 102. Further, a system control section 20 detects an image denoting a skin color region from an image signal 126 on the basis of a skin color table and further excludes other skin color regions than that of the layout auxiliary frame from the skin color region image. The skin color region part in the layout auxiliary frame of the skin color region image left in this way is divided by each saturation, and a face object of the people is calculated depending on the shape of each divided region to extract the face region. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像中の人物の顔に相当すると推定される領域を抽出する顔抽出を行うディジタルカメラに関するものである。   The present invention relates to a digital camera that performs face extraction for extracting an area estimated to correspond to a human face in an image.

人物写真を鑑賞するときに最も注目される部位は人物の顔であるので、たとえばネガフィルムなどに記録された原画像を印画紙などの複写材料に焼付ける場合には、人物の顔の色が適正な色に焼付けされるように、原画像中の人物の顔に相当する領域を抽出し、抽出した領域の色や濃度に基づいて露光量を決定することが望ましい。   The most noticeable part when viewing portraits is the person's face. For example, when an original image recorded on a negative film or the like is printed on a copy material such as photographic paper, the color of the person's face is It is desirable to extract a region corresponding to a person's face in the original image so as to be printed in an appropriate color, and to determine the exposure amount based on the color and density of the extracted region.

そこで、従来から、顔領域抽出方法では、カラー原画像において、肌色データを抽出することによって人物の顔に相当すると推定される領域を抽出している。特許文献1に記載の顔領域抽出方法では、カラー原画像上の多数箇所を複数の成分色に分解して測光した結果、肌色領域内に位置し、非エッジ部分と分類した画素からなり、かつエッジ部分と判定された画素で囲まれた領域を顔候補領域として抽出することができる。   Therefore, conventionally, in the face area extraction method, an area estimated to correspond to a human face is extracted from the color original image by extracting skin color data. In the face area extraction method described in Patent Document 1, as a result of performing photometry by dividing a large number of locations on the color original image into a plurality of component colors, the face area extraction method is composed of pixels that are located in the skin color area and classified as non-edge portions, and An area surrounded by pixels determined to be edge portions can be extracted as a face candidate area.

特開平9-101579号公報JP-A-9-101579

ところで、ディジタルカメラの顔抽出において問題になるのが、肌色と類似の色相の物体であり、たとえば、木や地面などが考えられる。また、タングステン光源下での物体は、自動ホワイトバランス(Automatic White Balance:AWB)のロバスト性から、完全にはホワイトバランス(White Balance:WB)がとれず光源色が残ってしまう。たとえば、白壁などの背景は、タングステン光が当たると肌色に見えてしまう。この状況を完全補正しようとすると誤判別時の被害が大きくなるため、通常、ディジタルカメラは、タングステンの光源の雰囲気を残すように設定されている。   By the way, a problem in the face extraction of a digital camera is an object having a hue similar to the skin color. For example, a tree or the ground can be considered. In addition, an object under a tungsten light source is not able to achieve a complete white balance (WB) due to the robustness of automatic white balance (AWB), and the light source color remains. For example, a background such as a white wall appears to be a skin color when exposed to tungsten light. When trying to completely correct this situation, the damage at the time of misjudgment becomes large. Therefore, a digital camera is usually set to leave an atmosphere of a tungsten light source.

特許文献1に記載の顔領域抽出方法は、上記のような顔と類似色相の物体を撮影すると、光の加減や色相により、顔のエッジが閉曲線にならない光質の場合も存在し、誤検出することがある。   In the face region extraction method described in Patent Document 1, when an object having a hue similar to that of the face as described above is photographed, there may be a case where the edge of the face does not become a closed curve due to light intensity or hue, and erroneous detection is detected. There are things to do.

本発明はこのような従来技術の欠点を解消し、顔と類似色相の物体を除外して適切に顔抽出を行うディジタルカメラを提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a digital camera that eliminates such drawbacks of the prior art and appropriately extracts a face by excluding an object having a hue similar to that of the face.

本発明は上述の課題を解決するために、被写界を撮像してこの被写界を表わす画像信号を形成する撮像手段と、この画像信号を一時格納する格納手段とを含むディジタルカメラは、この被写界に応じた構図を操作者に示す構図補助フレームを設定する設定手段と、この画像信号が示す画像から顔領域を抽出する顔領域抽出手段とを含み、この顔領域抽出手段は、視覚的に肌色と判断できる複数の色データを含む肌色テーブルを有し、この顔領域抽出手段は、この格納手段からこの画像信号を抽出処理画像として取得して抽出前処理を行う前処理手段と、この肌色テーブルに基づいて、この抽出処理画像における各画素データが肌色であるか否かを判断して、肌色と判断された画素データで構成される肌色領域画像を検出する肌色領域検出手段と、この肌色領域画像の内、この構図補助フレーム外の肌色領域を除外する除外手段と、この肌色領域画像を複数の分割領域に分割する分割手段とを含み、この複数の分割領域の形状を、それぞれ、顔に相当するか否かを判定して顔領域を抽出することを特徴とする。   In order to solve the above-described problems, the present invention provides a digital camera including an imaging unit that captures an image of a scene and forms an image signal representing the scene, and a storage unit that temporarily stores the image signal. Including a setting means for setting a composition auxiliary frame indicating the composition to the operator according to the object scene, and a face area extracting means for extracting a face area from an image indicated by the image signal. A skin color table that includes a plurality of color data that can be visually determined as skin color, and the face area extraction unit acquires pre-extraction processing by acquiring the image signal from the storage unit as an extraction processing image; Based on the skin color table, it is determined whether each pixel data in the extraction processing image is a skin color, and a skin color region detecting means for detecting a skin color region image composed of the pixel data determined to be a skin color The skin color area image includes an excluding means for excluding the skin color area outside the composition auxiliary frame, and a dividing means for dividing the skin color area image into a plurality of divided areas. Each of them is characterized by determining whether or not it corresponds to a face and extracting a face region.

本発明によれば、ディジタルカメラは、構図補助フレームを利用することにより、顔位置を絞り込んで顔抽出を行うことができる。これにより、地面やタングステン時の背景などのような肌色類似色の影響を軽減することができ、より確度ある顔抽出と共に撮影をすることができる。さらに、この顔抽出結果に基づいて、適切なホワイトバランス調整を行うことができる。   According to the present invention, the digital camera can extract the face by narrowing down the face position by using the composition auxiliary frame. As a result, the influence of skin color similar colors such as the ground or the background at the time of tungsten can be reduced, and photographing with more accurate face extraction can be performed. Furthermore, appropriate white balance adjustment can be performed based on the face extraction result.

次に添付図面を参照して本発明によるディジタルカメラの実施例を詳細に説明する。図1を参照すると、本発明によるディジタルカメラ10の実施例は、撮像部12で撮像した画像信号を前処理部14およびアナログ・ディジタル(A/D)変換器16で前処理してメモリ18に一時蓄積し、システム制御部20において構図補助フレーム情報を用いて画像信号を処理して顔抽出を行い、WB調整部22で顔抽出結果に応じてホワイトバランス調整を制御する。なお、本発明の理解に直接関係のない部分は、図示を省略し、冗長な説明を避ける。   Next, embodiments of a digital camera according to the present invention will be described in detail with reference to the accompanying drawings. Referring to FIG. 1, in the embodiment of the digital camera 10 according to the present invention, an image signal picked up by an image pickup unit 12 is preprocessed by a preprocessing unit 14 and an analog / digital (A / D) converter 16 and stored in a memory 18. Temporarily accumulating, the system control unit 20 processes the image signal using the composition auxiliary frame information to perform face extraction, and the WB adjustment unit 22 controls the white balance adjustment according to the face extraction result. Note that portions not directly related to understanding the present invention are not shown and redundant description is avoided.

本実施例では、構図補助フレームは、図6〜図9に示すように、撮影モードに応じて種類を変えてディジタルカメラ10のディスプレイ40に表示されて、被写界に応じた最適な構図を操作者に示す、ベストフレーミング機能を有する。この構図補助フレームは、操作者により表示と非表示とが切り替えられてもよい。   In this embodiment, as shown in FIGS. 6 to 9, the composition auxiliary frame is displayed on the display 40 of the digital camera 10 by changing the type according to the shooting mode, and has the optimum composition according to the object scene. It has the best framing function shown to the operator. The composition auxiliary frame may be switched between display and non-display by the operator.

本実施例において、構図補助フレームは、数種類のフレームの内、一つが選択されて設定されてよく、たとえば、風景モードや夜景モードでは、図10および図11に示すような格子状のフレームが選択される。また、撮影モードが人物モード、すなわちポートレート用の撮影である場合には、図12および図13に示すような横撮り型のポートレート用フレームや、図14および図15に示すような縦撮り型のポートレート用フレームが選択される。本発明では、画像から人物の顔領域を抽出するので、図12〜図15に示すポートレート用フレームが用いられ、操作者は、これらのフレームの最も内側の枠内に、撮影対象を当てはめるとよい。   In this embodiment, the composition auxiliary frame may be set by selecting one of several types of frames. For example, in the landscape mode or the night view mode, a lattice-shaped frame as shown in FIGS. 10 and 11 is selected. Is done. If the shooting mode is portrait mode, that is, portrait shooting, portrait shooting frames as shown in FIGS. 12 and 13 or vertical shooting as shown in FIGS. A portrait frame of the type is selected. In the present invention, since the human face area is extracted from the image, the portrait frames shown in FIGS. 12 to 15 are used, and the operator applies the object to be photographed in the innermost frame of these frames. Good.

また、図12および図14における構図補助フレームは、画像を3段階に分ける2つのフレームが示され、図13および図15における構図補助フレームは、画像を4段階に分ける3つのフレームが示される。図12〜図15のそれぞれの場合において、構図補助フレームは、複数のフレームを有する一つの構図補助フレームとして表示されてもよく、また、複数のフレームが切り替えられて表示されてもよい。   12 and 14 show two frames that divide an image into three stages, and the composition auxiliary frames in FIGS. 13 and 15 show three frames that divide an image into four stages. 12 to 15, the composition assistance frame may be displayed as one composition assistance frame having a plurality of frames, or a plurality of frames may be switched and displayed.

撮像部12は、具体的な構成は図示しないが、撮影画像の1画面を形成する撮像面を含み、光学系を介してその撮像面に結像される被写界像をアナログ電気信号102に光電変換して出力する。本実施例の撮像部12は、たとえば、電荷結合素子(Charge Coupled Device:CCD)や金属酸化膜型半導体(Metal Oxide Semiconductor:MOS)等のいずれのイメージセンサでもよい。   Although a specific configuration is not illustrated, the imaging unit 12 includes an imaging surface that forms one screen of a captured image, and an object field image formed on the imaging surface via an optical system is converted into an analog electric signal 102. Output after photoelectric conversion. The imaging unit 12 of the present embodiment may be any image sensor such as a charge coupled device (CCD) or a metal oxide semiconductor (MOS).

撮像部12における撮像面は、複数の受光素子が配置されて形成される。各受光素子は、入射光を電気信号に光電変換する光センサであり、たとえば、フォトダイオードが用いられる。また、各受光素子には、入射光を色分解する色フィルタが備えられ、この色フィルタの配設により、たとえば、三原色RBGというそれぞれの色の属性を有するように色分解された入射光が入射して、その色に応じたアナログ電気信号102を出力する。   The imaging surface of the imaging unit 12 is formed by arranging a plurality of light receiving elements. Each light receiving element is an optical sensor that photoelectrically converts incident light into an electrical signal. For example, a photodiode is used. In addition, each light receiving element is provided with a color filter that separates the incident light, and by the arrangement of this color filter, incident light that has been color-separated to have attributes of the respective colors, for example, the three primary colors RBG is incident. Then, an analog electrical signal 102 corresponding to the color is output.

前処理部14は、アナログ電気信号102に対して、アナログ信号処理を施す機能を有する。たとえば、前処理部14は、相関二重サンプリング(Correlated Double Sampling:CDS)処理を施して雑音を低減し、ゲインコントロールアンプ(Gain Controlled Amplifier:GCA)処理により信号を増幅させる。また、処理されたアナログ画像信号104をA/D変換器16に出力する。   The preprocessing unit 14 has a function of performing analog signal processing on the analog electrical signal 102. For example, the preprocessing unit 14 performs correlated double sampling (CDS) processing to reduce noise, and amplifies the signal by gain control amplifier (Gain Controlled Amplifier: GCA) processing. Further, the processed analog image signal 104 is output to the A / D converter 16.

A/D変換器16は、入力のアナログ画像信号104の信号レベルを所定の量子化レベルにより量子化してディジタル画像信号に変換する機能を有し、本実施例では、メモリ18およびWB調整部22に、それぞれ、ディジタル画像信号106および108を出力する。メモリ18は、ディジタル画像信号106を一時蓄積する機能を有する。   The A / D converter 16 has a function of quantizing the signal level of the input analog image signal 104 with a predetermined quantization level and converting it into a digital image signal. In this embodiment, the memory 18 and the WB adjustment unit 22 In addition, digital image signals 106 and 108 are output, respectively. The memory 18 has a function of temporarily storing the digital image signal 106.

システム制御部20は、本カメラ全体の動作を制御および統括する制御機能部である。また、システム制御部20は、視覚的に肌色と判断できる複数の色データを含む肌色テーブル、および画像信号などで表わされる数種類の構図補助フレームを保有し、構図補助フレームの設定を記憶することもできる。本実施例では、特に、メモリ18から画像信号を抽出処理画像として取得し、構図補助フレームを用いて顔抽出を行い、たとえば、この顔抽出結果を利用してWB調整部22のホワイトバランス調整を制御する。この顔抽出処理は、人物撮影において有利な効果があるため、たとえば、撮影モードが人物モードであるときや、構図補助フレームがポートレート用であるときに行われるとよい。   The system control unit 20 is a control function unit that controls and controls the overall operation of the camera. In addition, the system control unit 20 has a skin color table including a plurality of color data that can be visually determined as skin color, and several types of composition auxiliary frames represented by image signals and the like, and can store the composition auxiliary frame settings. it can. In the present embodiment, in particular, an image signal is acquired as an extraction processing image from the memory 18, and face extraction is performed using a composition auxiliary frame. For example, the white balance adjustment of the WB adjustment unit 22 is performed using the face extraction result. Control. Since this face extraction process has an advantageous effect in person shooting, it is preferable to perform this process when, for example, the shooting mode is the person mode, or when the composition assistance frame is for portraits.

さらに、本実施例におけるシステム制御部20は、積算部30、AWB調整部32および同時化処理部34を含んで顔抽出のための前処理を行い、中央演算処理装置(Central Processing Unit:CPU)36を含んで顔抽出を行い、この抽出結果に応じてWB調整部22を制御する。   Further, the system control unit 20 in the present embodiment includes a summation unit 30, an AWB adjustment unit 32, and a synchronization processing unit 34 to perform preprocessing for face extraction, and a central processing unit (CPU) The face is extracted including 36, and the WB adjustment unit 22 is controlled according to the extraction result.

この積算部30は、メモリ18から引き出されるディジタル画像信号120を処理して、AWB調整のための評価値を生成する。   The accumulating unit 30 processes the digital image signal 120 extracted from the memory 18 to generate an evaluation value for AWB adjustment.

AWB調整部32は、積算部30から供給される画像信号122に対して、積算部30で求めた評価値を用いてAWB調整を施す機能を有する。   The AWB adjustment unit 32 has a function of performing AWB adjustment on the image signal 122 supplied from the integration unit 30 using the evaluation value obtained by the integration unit 30.

同時化処理部34では、AWB調整が施された画像信号124において、各受光素子から得られる画素データに対して、受光素子のない空隙位置、すなわち仮想受光素子または仮想画素での画素データを周囲の画素データから三原色RGBのいずれかについて補間生成する。この補間生成により三原色RGBのそれぞれプレーンな画像のデータが同時に得られる。   In the image processing unit 124 for which the AWB adjustment has been performed, the synchronization processing unit 34 surrounds the pixel data obtained from each light receiving element with a gap position without the light receiving element, that is, the pixel data at the virtual light receiving element or the virtual pixel. Interpolation is generated for any of the three primary colors RGB from the pixel data. By this interpolation generation, plain image data of the three primary colors RGB can be obtained simultaneously.

CPU 36は、本実施例では、供給される画像信号126に示される画像から顔領域を抽出して、この抽出結果に応じて制御信号110を生成してWB調整部22を制御する機能を有する。顔領域抽出では、肌色テーブルに基づいて画像信号126から肌色領域を示す画像を検出し、この肌色領域画像から構図補助フレーム外の肌色領域を除外する。こうして残されたフレーム内肌色領域画像の肌色領域部分を彩度ごとに分割し、分割した各領域の形状から顔候補を算出して顔領域を抽出する。   In this embodiment, the CPU 36 has a function of extracting a face region from the image indicated by the supplied image signal 126, generating a control signal 110 according to the extraction result, and controlling the WB adjustment unit 22. . In the face area extraction, an image showing the skin color area is detected from the image signal 126 based on the skin color table, and the skin color area outside the composition auxiliary frame is excluded from the skin color area image. The skin color area portion of the in-frame skin color area image remaining in this manner is divided for each saturation, and face candidates are calculated from the shapes of the divided areas to extract face areas.

また、CPU 36では、たとえば、構図補助フレームに応じた重み付けを用いて、顔領域の明るさを示す輝度信号などに基づき、WB調整のためのホワイトバランスゲインなどの評価値を生成して、WB調整部22を制御する制御信号110をWB調整部22に供給する。   Further, the CPU 36 generates an evaluation value such as a white balance gain for WB adjustment based on a luminance signal indicating the brightness of the face area, for example, using weighting according to the composition assist frame, and generates WB. A control signal 110 for controlling the adjustment unit 22 is supplied to the WB adjustment unit 22.

また、WB調整部22は、入力のディジタル画像信号108に対して、本実施例では、システム制御部20から供給される制御信号110により制御されて、適切にホワイトバランスを調整し、ディジタル画像信号112を出力する。また、WB調整部22では、ディジタル画像信号108をメモリ18から読み出すようにしてもよい。   In the present embodiment, the WB adjustment unit 22 is controlled by the control signal 110 supplied from the system control unit 20 with respect to the input digital image signal 108, and appropriately adjusts the white balance so that the digital image signal 112 is output. Further, the WB adjustment unit 22 may read the digital image signal 108 from the memory 18.

ガンマ(γ)変換部24では、入力のディジタル画像信号112を、たとえば撮像部12の階調特性に応じてガンマ補正する機能を有して、補正した画像信号114を出力する。   The gamma (γ) conversion unit 24 has a function of performing gamma correction on the input digital image signal 112 in accordance with, for example, the gradation characteristics of the imaging unit 12, and outputs a corrected image signal 114.

Y/C処理部26は、入力のディジタル画像信号114に対して、三原色RGBにて表わされた画像信号を、輝度信号Yと色差信号R-YおよびB-Yとから構成された信号に変換して、Y/C処理が行われタ画像信号を出力する。   The Y / C processing unit 26 converts the image signal represented by the three primary colors RGB into a signal composed of the luminance signal Y and the color difference signals RY and BY with respect to the input digital image signal 114, Y / C processing is performed to output the image signal.

圧縮/伸張部28は、入力のディジタル画像信号116に対して、たとえば、直交変換を用いたJPEG(Joint Photographic cording Experts Group)規格での圧縮処理、および元の信号に伸張処理する機能を有する。圧縮/伸張部28は、圧縮した信号を、半導体メモリが搭載されたメモリカードや光磁気ディスク等の回転記録体を収容したパッケージなどの情報記録媒体(図示せず)に出力して記憶させてよい。   The compression / decompression unit 28 has a function of compressing the input digital image signal 116 in accordance with, for example, JPEG (Joint Photographic Cording Experts Group) standard using orthogonal transform and decompressing the original signal. The compression / decompression unit 28 outputs the compressed signal to an information recording medium (not shown) such as a package containing a rotating recording body such as a memory card on which a semiconductor memory is mounted or a magneto-optical disk, and stores it. Good.

次にディジタルカメラ10の動作を、図5のフローチャートを参照しながら説明する。操作者は本カメラを操作して、構図補助フレームにポートレート用フレームを設定し、人物などを含む被写界像が撮像部12で撮像される。   Next, the operation of the digital camera 10 will be described with reference to the flowchart of FIG. The operator operates the camera to set a portrait frame as a composition assistance frame, and an image of the scene including a person or the like is captured by the imaging unit 12.

この撮像されたアナログ電気信号102は、前処理部14に供給されてアナログ信号処理が施される。アナログ信号処理されたアナログ画像信号104は、A/D変換器16に供給されてアナログ・ディジタル変換が行われる。この変換されたディジタル画像信号106は、メモリ18に一時蓄積される(ステップ502)。   The imaged analog electrical signal 102 is supplied to the preprocessing unit 14 and subjected to analog signal processing. The analog image signal 104 subjected to the analog signal processing is supplied to the A / D converter 16 and subjected to analog / digital conversion. The converted digital image signal 106 is temporarily stored in the memory 18 (step 502).

次に、システム制御部20において、メモリ18から画像信号120を読み出し、積算部30、AWB調整部32および同時化処理部34で前処理される(ステップ504)。このとき、積算部30では、画像信号120に基づいて、AWB調整のための評価値が算出され、画像信号122およびこの評価値がAWB調整部32に供給される。AWB調整部32において、画像信号122は、この評価値を用いてAWB調整され、AWB調整された画像信号124は、同時化処理部34に供給される。同時化処理部34において、画像信号124は、三原色RGB同時生成が行われ、生成された画像信号126がCPU 36に供給される。   Next, in the system control unit 20, the image signal 120 is read from the memory 18, and is preprocessed by the integration unit 30, the AWB adjustment unit 32, and the synchronization processing unit 34 (step 504). At this time, the integration unit 30 calculates an evaluation value for AWB adjustment based on the image signal 120, and supplies the image signal 122 and the evaluation value to the AWB adjustment unit 32. In the AWB adjustment unit 32, the image signal 122 is AWB-adjusted using the evaluation value, and the AWB-adjusted image signal 124 is supplied to the synchronization processing unit 34. In the synchronization processing unit 34, the three primary colors RGB are simultaneously generated for the image signal 124, and the generated image signal 126 is supplied to the CPU 36.

CPU 36では、まず肌色テーブルが取得される(ステップ506)。たとえば、図2に示すように、被写界像を再現する色を、R/Gを横軸に、またB/Gを縦軸にとる図に表わすとき、視覚的に肌色と判断できる範囲を肌色抽出エリア202とする。本実施例では、肌色テーブルは、このエリア202で囲まれた範囲内の複数の色データをテーブルとして含む。   The CPU 36 first obtains a skin color table (step 506). For example, as shown in FIG. 2, when the color that reproduces the object scene image is represented in a diagram with R / G on the horizontal axis and B / G on the vertical axis, the range that can be visually judged as skin color is The skin color extraction area 202 is assumed. In the present embodiment, the skin color table includes a plurality of color data within a range surrounded by the area 202 as a table.

ここで、この肌色テーブルを用いて、画像信号126から肌色領域画像が検出される(ステップ508)。このとき、画像信号126における各画素の画像データが、肌色テーブルに含まれる複数の色データのいずれかに相当するか否か、すなわち肌色であるか否かが判断される。この結果、肌色と判断された場合、その画像データは肌色領域として画像に残され、判断されない場合、その画像データは画像から除外される。このようにして、肌色領域画像が検出される。   Here, using this skin color table, a skin color region image is detected from the image signal 126 (step 508). At this time, it is determined whether the image data of each pixel in the image signal 126 corresponds to any of a plurality of color data included in the skin color table, that is, whether it is a skin color. As a result, when the skin color is determined, the image data is left in the image as a skin color region. When the skin data is not determined, the image data is excluded from the image. In this way, the skin color area image is detected.

また、CPU 36では、構図補助フレームが取得される(ステップ510)。この構図補助フレームは、撮像の直前に操作者により設定されるものでよい。   Further, the CPU 36 acquires a composition assistance frame (step 510). This composition auxiliary frame may be set by the operator immediately before imaging.

本実施例では、図3に示すように、肌色領域画像302に構図補助フレーム304を重ねた場合に、このフレーム外に位置するような肌色領域は、顔領域でない可能性が高く、顔領域の候補の対象外として肌色領域画像から除外される(ステップ512)。   In this embodiment, as shown in FIG. 3, when the composition auxiliary frame 304 is superimposed on the skin color region image 302, the skin color region located outside the frame is highly likely not to be a face region. It is excluded from the skin color area image as a candidate excluded (step 512).

次に、CPU 36において、構図補助フレーム304内の画像は、各画素の肌色および彩度が判定されて、彩度による領域分割が行われる(ステップ514)。たとえば、図2によるR/GおよびB/Gで示す色のグラフを、原点を中心とする円210、212、214、216および218により分割するとき、分割範囲のそれぞれは、外側の円になるほどに彩度が高くなり、すなわち、R/GまたはB/Gの増加に応じて彩度が高くなる。本実施例では、肌色テーブルが所定数の彩度に区分され、たとえば、図2に示すように、肌色抽出エリア202がこの彩度ごとに6分割されるとき、図3に示すように、フレーム304内の画像が彩度ごとに領域分割される。本実施例では、この領域分割は、フレーム外の肌色領域を除外した後で行われるが、この除外の後で行われてもよい。   Next, the CPU 36 determines the skin color and saturation of each pixel of the image in the composition assistance frame 304, and performs region division based on the saturation (step 514). For example, when the color graphs indicated by R / G and B / G according to FIG. 2 are divided by circles 210, 212, 214, 216 and 218 centered on the origin, each of the division ranges becomes an outer circle. The saturation increases, that is, the saturation increases as R / G or B / G increases. In this embodiment, the skin color table is divided into a predetermined number of saturations. For example, as shown in FIG. 2, when the skin color extraction area 202 is divided into 6 for each saturation, as shown in FIG. The image in 304 is divided into regions for each saturation. In this embodiment, this region division is performed after excluding the skin color region outside the frame, but may be performed after this exclusion.

また、本発明では、構図補助フレーム内の画像を分割する場合、各画素のエッジを検出してそのエッジの境界ごとに分割してもよい。このとき、ハイパスフィルタ(High Pass Filter:HPF)などを用いてエッジ検出してもよい。   In the present invention, when the image in the composition assistance frame is divided, the edge of each pixel may be detected and divided for each boundary of the edge. At this time, the edge may be detected using a high pass filter (HPF) or the like.

このように、彩度分割された領域は、顔と顔以外の肌色類似部分とを区別するために、それぞれの形状が顔に相当するか否が判別されて、適切に顔領域を抽出することができる(ステップ516)。   Thus, in order to distinguish between the face and the skin color similar part other than the face, it is determined whether or not each shape corresponds to the face, and the face area is appropriately extracted. (Step 516).

本実施例において、顔抽出を行った結果、たとえば、図4に示すように、構図補助フレーム404を用いた肌色領域画像402において、顔領域の候補406、408、410および412が抽出される。このとき、システム制御部20において、これらの顔候補の明るさを示す輝度信号などに基づき、WB調整部22におけるホワイトバランス調整のための評価値を算出することができる。   In this embodiment, as a result of the face extraction, for example, face area candidates 406, 408, 410, and 412 are extracted from the skin color area image 402 using the composition auxiliary frame 404 as shown in FIG. At this time, the system control unit 20 can calculate an evaluation value for white balance adjustment in the WB adjustment unit 22 based on a luminance signal indicating the brightness of these face candidates.

顔候補406、408、410および412の明るさは、それぞれ、Y1、Y2、Y3およびY4で示され、これらは、画像データから求められてよい。一方、顔候補406、408、410および412の重み付けは、それぞれ、W1、W2、W3およびW4で示され、これらは、構図補助フレーム404の内と外とで変わるよう調整される。たとえば、フレーム404内に位置する顔候補406、408および410の重み付けは、互いに等しく、フレーム404から外れた顔候補412は、顔でない可能性が他より高いため、他の顔候補の重み付けより小さくなり、W1=W2=W3>W4の関係が成り立つ。   The brightness of the face candidates 406, 408, 410, and 412 is indicated by Y1, Y2, Y3, and Y4, respectively, and may be obtained from the image data. On the other hand, the weights of the face candidates 406, 408, 410, and 412 are indicated by W1, W2, W3, and W4, respectively, and these are adjusted so as to change inside and outside the composition assisting frame 404. For example, the weights of the face candidates 406, 408, and 410 located in the frame 404 are equal to each other, and the face candidate 412 that is out of the frame 404 is more likely to be a non-face than the others, so it is smaller than the weights of the other face candidates. Thus, the relationship of W1 = W2 = W3> W4 is established.

本実施例では、抽出された顔領域の候補iの明るさYiと、構図補助フレームに応じて定まる重み付けWiとを用いて、画像402の明るさY=ΣYiWi/ΣWiを算出することができる。さらに、この明るさYを用いてホワイトバランスゲインなどの評価値を生成し、制御信号110によりWB調整部22に供給することができる。このホワイトバランスゲインには、たとえば、1.2倍などの倍率を示す値が適用されてよい。 In this embodiment, the brightness Y i of the candidate i of the extracted face region, by using the weighting W i determined according to the composition auxiliary frame, the brightness Y = ΣY i W i / ΣW i of the image 402 Can be calculated. Furthermore, an evaluation value such as a white balance gain can be generated using this brightness Y and supplied to the WB adjustment unit 22 by the control signal 110. For example, a value indicating a magnification such as 1.2 times may be applied to the white balance gain.

このような重み付けの調整は、構図補助フレームが同時に複数のフレームを有する場合には、フレームが外側であるほどに小さくしてよい。また、本実施例では、重み付けの調整をフレームごとに行っているが、たとえば、明るさ、彩度または色データのレベルなどに応じて行ってもよい。   When the composition auxiliary frame has a plurality of frames at the same time, the weight adjustment may be made smaller as the frame is on the outer side. In this embodiment, the weight adjustment is performed for each frame. However, for example, it may be performed according to brightness, saturation, or the level of color data.

WB調整部22において、画像信号108は、供給された制御信号110に応じて、適切なホワイトバランス調整が施される。また、この調整がされた画像信号112は、γ変換部24、Y/C処理部26および圧縮/伸張部28に供給されて信号処理される。   In the WB adjustment unit 22, the image signal 108 is subjected to appropriate white balance adjustment according to the supplied control signal 110. Further, the adjusted image signal 112 is supplied to the γ conversion unit 24, the Y / C processing unit 26, and the compression / decompression unit 28 for signal processing.

本発明に係るディジタルカメラの一実施例を示すブロック図である。It is a block diagram which shows one Example of the digital camera which concerns on this invention. 図1に示す実施例のディジタルカメラにおいて、被写界像を再現する色について、R/GとB/Gとの関係、および肌色抽出エリアを示す図である。In the digital camera of the Example shown in FIG. 1, about the color which reproduces a scene image, it is a figure which shows the relationship between R / G and B / G, and a skin color extraction area. 図1に示す実施例のディジタルカメラにおいて、撮影画像における構図補助フレームに対する彩度分割を示す模式図である。FIG. 2 is a schematic diagram showing saturation division for a composition auxiliary frame in a captured image in the digital camera of the embodiment shown in FIG. 1. 図1に示す実施例のディジタルカメラにおいて、撮影画像における構図補助フレームに対する顔候補領域を示す模式図である。FIG. 2 is a schematic diagram showing a face candidate area for a composition assist frame in a captured image in the digital camera of the embodiment shown in FIG. 1. 本発明の顔抽出を行うディジタルカメラの動作手順を説明するフローチャートである。It is a flowchart explaining the operation | movement procedure of the digital camera which performs face extraction of this invention. 図1に示す実施例のディジタルカメラにおいて、撮影モードのオートモードを示す図である。It is a figure which shows the auto mode of imaging | photography mode in the digital camera of the Example shown in FIG. 図1に示す実施例のディジタルカメラにおいて、撮影モードの人物モードを示す図である。FIG. 2 is a diagram illustrating a portrait mode of a photographing mode in the digital camera of the embodiment illustrated in FIG. 1. 図1に示す実施例のディジタルカメラにおいて、撮影モードの風景モードを示す図である。FIG. 2 is a diagram illustrating a landscape mode of a photographing mode in the digital camera of the embodiment illustrated in FIG. 1. 図1に示す実施例のディジタルカメラにおいて、撮影モードの夜景モードを示す図である。FIG. 2 is a diagram illustrating a night scene mode of a photographing mode in the digital camera of the embodiment illustrated in FIG. 1. 図1に示す実施例のディジタルカメラにおいて、格子状である構図補助フレームの模式図である。FIG. 2 is a schematic diagram of a composition auxiliary frame having a lattice shape in the digital camera of the embodiment shown in FIG. 1. 図1に示す実施例のディジタルカメラにおいて、格子状である構図補助フレームの模式図である。FIG. 2 is a schematic diagram of a composition auxiliary frame having a lattice shape in the digital camera of the embodiment shown in FIG. 1. 図1に示す実施例のディジタルカメラにおいて、横撮りポートレート用の構図補助フレームの模式図である。FIG. 2 is a schematic diagram of a composition auxiliary frame for landscape shooting portrait in the digital camera of the embodiment shown in FIG. 1. 図1に示す実施例のディジタルカメラにおいて、横撮りポートレート用の構図補助フレームの模式図である。FIG. 2 is a schematic diagram of a composition auxiliary frame for landscape shooting portrait in the digital camera of the embodiment shown in FIG. 1. 図1に示す実施例のディジタルカメラにおいて、縦撮りポートレート用の構図補助フレームの模式図である。FIG. 2 is a schematic diagram of a composition auxiliary frame for portrait shooting portrait in the digital camera of the embodiment shown in FIG. 1. 図1に示す実施例のディジタルカメラにおいて、縦撮りポートレート用の構図補助フレームの模式図である。FIG. 2 is a schematic diagram of a composition auxiliary frame for portrait shooting portrait in the digital camera of the embodiment shown in FIG. 1.

符号の説明Explanation of symbols

10 ディジタルカメラ
12 撮像部
14 前処理部
16 A/D変換器
18 メモリ
20 システム制御部
22 ホワイトバランス調整部
24 ガンマ補正部
26 Y/C処理部
28 圧縮/伸張部
30 積算部
32 自動ホワイトバランス調整部
34 同時化処理部
36 中央演算処理装置
10 Digital camera
12 Imaging unit
14 Pre-processing section
16 A / D converter
18 memory
20 System controller
22 White balance adjustment section
24 Gamma correction section
26 Y / C processing section
28 Compression / decompression unit
30 Integration unit
32 Automatic white balance adjustment section
34 Synchronization processing section
36 Central processing unit

Claims (8)

被写界を撮像して該被写界を表わす画像信号を形成する撮像手段と、
前記画像信号を一時格納する格納手段とを含むディジタルカメラにおいて、該カメラは、前記被写界に応じた構図を操作者に示す構図補助フレームを設定する設定手段と、
前記画像信号が示す画像から顔領域を抽出する顔領域抽出手段とを含み、
該顔領域抽出手段は、視覚的に肌色と判断できる複数の色データを含む肌色テーブルを有し、該顔領域抽出手段は、
前記格納手段から前記画像信号を抽出処理画像として取得して抽出前処理を行う前処理手段と、
前記肌色テーブルに基づいて、前記抽出処理画像における各画素データが肌色であるか否かを判断して、肌色と判断された画素データで構成される肌色領域画像を検出する肌色領域検出手段と、
前記肌色領域画像の内、前記構図補助フレーム外の肌色領域を除外する除外手段と、
前記肌色領域画像を複数の分割領域に分割する分割手段とを含み、
前記複数の分割領域の形状を、それぞれ、顔に相当するか否かを判定して顔領域を抽出することを特徴とするディジタルカメラ。
Imaging means for imaging the scene and forming an image signal representing the scene;
In a digital camera including storage means for temporarily storing the image signal, the camera includes a setting means for setting a composition auxiliary frame indicating a composition corresponding to the object scene to an operator
A face area extracting means for extracting a face area from an image indicated by the image signal,
The face area extracting unit has a skin color table including a plurality of color data that can be visually determined as skin color, and the face area extracting unit includes:
Pre-processing means for acquiring the image signal from the storage means as an extraction processing image and performing pre-extraction processing;
Skin color area detecting means for determining whether each pixel data in the extraction processing image is a skin color based on the skin color table and detecting a skin color area image composed of the pixel data determined to be a skin color;
Excluding means for excluding a skin color area outside the composition auxiliary frame in the skin color area image;
Dividing means for dividing the skin color area image into a plurality of divided areas;
A digital camera which extracts a face area by determining whether or not each of the plurality of divided areas corresponds to a face.
請求項1に記載のカメラにおいて、前記肌色テーブルは、前記複数の色データを所定数の彩度に区分し、
前記分割手段は、前記肌色領域画像を前記所定数の彩度ごとに分割することを特徴とするディジタルカメラ。
The camera according to claim 1, wherein the skin color table divides the plurality of color data into a predetermined number of saturations,
The digital camera according to claim 1, wherein the dividing unit divides the skin color region image for each of the predetermined number of saturations.
請求項1または2に記載のカメラにおいて、前記分割手段は、前記肌色領域画像の各画素のエッジを検出するエッジ検出手段を含み、前記肌色領域画像を前記エッジの境界により分割することを特徴とするディジタルカメラ。   3. The camera according to claim 1, wherein the dividing unit includes an edge detecting unit that detects an edge of each pixel of the skin color region image, and divides the skin color region image by a boundary of the edge. Digital camera. 請求項1ないし3のいずれかに記載のカメラにおいて、前記前処理手段は、自動ホワイトバランス調整のための第1の評価値を算出して、第1の評価値を用いて前記抽出処理画像に自動ホワイトバランス調整を施し、さらに、同時化処理を施すことを特徴とするディジタルカメラ。   4. The camera according to claim 1, wherein the preprocessing unit calculates a first evaluation value for automatic white balance adjustment, and uses the first evaluation value for the extracted processed image. A digital camera that performs automatic white balance adjustment and further performs synchronization processing. 請求項1ないし4のいずれかに記載のカメラにおいて、該カメラは、前記顔領域抽出手段により抽出された顔領域に基づいてホワイトバランス調整のための第2の評価値を算出する算出手段と、
第2の評価値を用いて前記画像信号にホワイトバランス調整を施すホワイトバランス調整手段とを含むことを特徴とするディジタルカメラ。
The camera according to any one of claims 1 to 4, wherein the camera calculates a second evaluation value for white balance adjustment based on the face area extracted by the face area extraction means;
A digital camera comprising: white balance adjustment means for performing white balance adjustment on the image signal using a second evaluation value.
請求項5に記載のカメラにおいて、前記算出手段は、前記顔領域抽出手段により抽出された顔領域iの明るさYiと、前記構図補助フレームに基づいて定まる重み付けWiとを用いて、前記抽出処理画像の明るさY=ΣYiWi/ΣWiを算出し、該明るさYを用いて第2の評価値を算出することを特徴とするディジタルカメラ。 6. The camera according to claim 5, wherein the calculating means uses the brightness Y i of the face area i extracted by the face area extracting means and a weight W i determined based on the composition assistance frame. A digital camera that calculates brightness Y = ΣY i W i / ΣW i of an extracted processed image, and calculates a second evaluation value using the brightness Y. 請求項6に記載のカメラにおいて、第2の評価値は、ホワイトバランスゲインであることを特徴とするディジタルカメラ。   7. The digital camera according to claim 6, wherein the second evaluation value is a white balance gain. 請求項1ないし7のいずれかに記載のカメラにおいて、前記構図補助フレームは、同時に複数のフレームを有することを特徴とするディジタルカメラ。   8. The digital camera according to claim 1, wherein the composition auxiliary frame has a plurality of frames at the same time.
JP2004102935A 2004-03-31 2004-03-31 Digital camera for face extraction Expired - Fee Related JP4335727B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004102935A JP4335727B2 (en) 2004-03-31 2004-03-31 Digital camera for face extraction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004102935A JP4335727B2 (en) 2004-03-31 2004-03-31 Digital camera for face extraction

Publications (2)

Publication Number Publication Date
JP2005294917A true JP2005294917A (en) 2005-10-20
JP4335727B2 JP4335727B2 (en) 2009-09-30

Family

ID=35327413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004102935A Expired - Fee Related JP4335727B2 (en) 2004-03-31 2004-03-31 Digital camera for face extraction

Country Status (1)

Country Link
JP (1) JP4335727B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007208757A (en) * 2006-02-03 2007-08-16 Casio Comput Co Ltd Camera system, and camera control program
JP2008131405A (en) * 2006-11-21 2008-06-05 Sony Corp Imaging unit, image processing unit, image processing methods for the units, and program making computer execute the method
JP2009212787A (en) * 2008-03-04 2009-09-17 Ricoh Co Ltd Imaging apparatus and imaging method
EP2884733A1 (en) * 2013-12-12 2015-06-17 Samsung Electronics Co., Ltd Display device and method of controlling the same
KR20150121114A (en) * 2013-03-27 2015-10-28 후아웨이 디바이스 컴퍼니 리미티드 Method and apparatus for outputting picture

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007208757A (en) * 2006-02-03 2007-08-16 Casio Comput Co Ltd Camera system, and camera control program
JP2008131405A (en) * 2006-11-21 2008-06-05 Sony Corp Imaging unit, image processing unit, image processing methods for the units, and program making computer execute the method
US8385607B2 (en) 2006-11-21 2013-02-26 Sony Corporation Imaging apparatus, image processing apparatus, image processing method and computer program
JP2009212787A (en) * 2008-03-04 2009-09-17 Ricoh Co Ltd Imaging apparatus and imaging method
KR20150121114A (en) * 2013-03-27 2015-10-28 후아웨이 디바이스 컴퍼니 리미티드 Method and apparatus for outputting picture
KR101670377B1 (en) 2013-03-27 2016-10-28 후아웨이 디바이스 컴퍼니 리미티드 Picture outputting method and apparatus
EP2884733A1 (en) * 2013-12-12 2015-06-17 Samsung Electronics Co., Ltd Display device and method of controlling the same
US9582708B2 (en) 2013-12-12 2017-02-28 Samsung Electronics Co., Ltd. Display device and method of controlling the same

Also Published As

Publication number Publication date
JP4335727B2 (en) 2009-09-30

Similar Documents

Publication Publication Date Title
JP4217698B2 (en) Imaging apparatus and image processing method
JP3762725B2 (en) Imaging system and image processing program
JP4008778B2 (en) Imaging device
KR101388130B1 (en) Image processing apparatus and image processing method
JP4803178B2 (en) Image processing apparatus, computer program product, and image processing method
US9426437B2 (en) Image processor performing noise reduction processing, imaging apparatus equipped with the same, and image processing method for performing noise reduction processing
WO2005041560A1 (en) Signal processing system, signal processing method, and signal processing program
JP2000228747A (en) Picture processor
KR101309008B1 (en) Image processing method and image processing apparatus
KR102102740B1 (en) Image processing apparatus and image processing method
JP2010088105A (en) Imaging apparatus and method, and program
JPH0823473A (en) Image pickup device
JP2007067815A (en) Image processing device and image processing method
JP5589660B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2007329619A (en) Video signal processor, video signal processing method and video signal processing program
JP2006295582A (en) Image processor, imaging apparatus, and image processing program
JP4335727B2 (en) Digital camera for face extraction
JP2002218480A (en) Image photographing device
JP2008219198A (en) Image processor and image processing program
JP5743456B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP2010213105A (en) Imaging apparatus
US8334912B2 (en) Image processing apparatus, imaging apparatus, image processing method, and computer readable recording medium storing image processing program
JP3836237B2 (en) Image correction method and apparatus
JP2016040870A (en) Image processing apparatus, image forming method and program
JP2003299107A (en) Imaging device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20070308

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090602

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090625

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130703

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees