JPH06309433A - Picture identification system - Google Patents
Picture identification systemInfo
- Publication number
- JPH06309433A JPH06309433A JP5092665A JP9266593A JPH06309433A JP H06309433 A JPH06309433 A JP H06309433A JP 5092665 A JP5092665 A JP 5092665A JP 9266593 A JP9266593 A JP 9266593A JP H06309433 A JPH06309433 A JP H06309433A
- Authority
- JP
- Japan
- Prior art keywords
- skin
- area
- image
- importance
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Image Processing (AREA)
- Processing Of Color Television Signals (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、例えば画像に所定の処
理を施す画像処理装置などに用いて好適な画像識別方式
に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image identification system suitable for use in, for example, an image processing apparatus for subjecting an image to predetermined processing.
【0002】[0002]
【従来の技術】画像に人物が含まれている場合、人間
は、画像の中の人物の肌の領域に注目する傾向があり、
この肌の領域の画質が、その画像全体に対する主観的画
質に大きな影響を与えることが知られている。2. Description of the Related Art When an image contains a person, the person tends to focus on the skin area of the person in the image,
It is known that the image quality of the skin area has a great influence on the subjective image quality of the entire image.
【0003】そこで、従来の映像機器においては、再生
画像の画質調整を行う場合に、肌の領域を重視し、その
領域の画質が最適になるように、各種パラメータの設定
が行われるようになされている。Therefore, in the conventional video equipment, when the image quality of a reproduced image is adjusted, the skin area is emphasized and various parameters are set so that the image quality of the area is optimized. ing.
【0004】ところで、従来、肌の領域の抽出は、画素
レベルの色情報のみに基づいて行われている。By the way, conventionally, the extraction of the skin region is performed based on only the pixel-level color information.
【0005】即ち、従来においては、色を表す3次元空
間としての、例えば図18に示すRGB空間において、
肌色が占めると考えられる範囲(図中、影を付してある
部分)をあらかじめ設定しておき、その範囲に含まれる
色を持つ画素(図中、・印で示す部分)を画像から抽出
して、その画素が構成する領域を肌の領域(図中、斜線
を付してある部分)とみなすようになされている。That is, in the conventional art, for example, in the RGB space shown in FIG.
The range (the shaded area in the figure) that is considered to be occupied by skin color is set in advance, and the pixels with the colors included in that range (the area indicated by a mark in the figure) are extracted from the image. Then, the area formed by the pixel is regarded as a skin area (a shaded portion in the drawing).
【0006】なお、色を表すための3次元空間として
は、上述のRGB空間の他、例えばテレビジョン信号で
用いられるYUV空間、CIE(国際照明委員会)によ
り制定されているL*a*b*均等空間などが用いられ
る。As a three-dimensional space for representing colors, in addition to the above-mentioned RGB space, for example, a YUV space used for television signals, L * a * b established by CIE (International Commission on Illumination). * A uniform space is used.
【0007】[0007]
【発明が解決しようとする課題】以上のように、従来に
おいては、肌色の領域を肌の領域と仮定している。しか
しながら、画像上の色が肌色であっても、その領域が、
実際に人間の肌の領域であるとは限らず、即ち人間の肌
以外にも、肌色の物体は存在し、従って、色の情報だけ
から正しく肌を識別することは困難であった。As described above, conventionally, the skin color region is assumed to be the skin region. However, even if the color on the image is flesh,
Actually, it is not always the area of human skin, that is, there are flesh-colored objects other than human skin, and thus it is difficult to correctly identify the skin only from the color information.
【0008】このため、肌の領域を含まない画像に対し
て、上述のような肌の領域を含む画像に対するときと同
様の画質調整がなされ、画質に悪影響を与える課題があ
った。Therefore, the image quality adjustment is performed on the image not including the skin region as in the case of the image including the skin region as described above, and there is a problem that the image quality is adversely affected.
【0009】本発明は、このような状況に鑑みてなされ
たものであり、画像における人の肌を正しく識別するこ
とができるようにするものである。The present invention has been made in view of such a situation, and makes it possible to correctly identify human skin in an image.
【0010】[0010]
【課題を解決するための手段】請求項1に記載の画像識
別方式は、画像が、人物の肌に対応する肌の領域を含む
肌画像であるかどうかを判定する画像識別方式におい
て、肌色の画素を抽出する抽出手段としての肌色画素検
出器3と、肌色画素検出器3により抽出された肌色の各
画素から、肌の領域の候補を検出する検出手段としての
肌領域候補検出器4と、肌領域候補検出器4により検出
された肌の領域の各候補の中から、肌の領域を決定する
決定手段としての肌領域検出器6または肌領域重要度算
出器31と、肌領域検出器6または肌領域重要度算出器
31の決定結果に基づいて、画像が、肌画像であるかど
うかを判定し、その判定結果を出力する判定手段として
の肌画像判定器7または肌画像重要度算出器32とを有
することを特徴とする。An image identification method according to claim 1 is an image identification method for determining whether an image is a skin image including a skin area corresponding to a person's skin. A skin color pixel detector 3 as an extraction means for extracting pixels, and a skin area candidate detector 4 as a detection means for detecting a skin area candidate from each pixel of the skin color extracted by the skin color pixel detector 3, The skin region detector 6 or the skin region importance calculator 31 and the skin region detector 6 as the determining means for determining the skin region from each of the skin region candidates detected by the skin region candidate detector 4. Alternatively, based on the determination result of the skin area importance calculator 31, it is determined whether or not the image is a skin image, and the skin image determiner 7 or the skin image importance calculator as a determination unit that outputs the determination result. 32 and .
【0011】請求項2に記載の画像識別方式は、肌領域
検出器6に、肌の領域の各候補の重要度を計算させ、重
要度に基づいて、肌の領域の各候補の中から、肌の領域
を決定させ、肌画像判定器7に、肌領域検出器6の決定
結果に基づいて、画像が、肌画像であるか否かを判定さ
せ、画像が、肌画像であるか否かの2値的な判定結果を
出力させることを特徴とする。According to the image identification method of the second aspect, the skin area detector 6 is made to calculate the importance of each candidate of the skin area, and based on the importance, from among the candidates of the skin area, The skin area is determined, and the skin image determiner 7 determines whether the image is a skin image based on the determination result of the skin area detector 6, and determines whether the image is a skin image. It is characterized in that the binary judgment result of is output.
【0012】請求項3に記載の画像識別方式は、肌領域
重要度算出器31に、肌の領域の各候補の中から、肌の
領域を決定させるとともに、その重要度を算出させ、肌
画像重要度算出器32に、肌領域重要度算出器31によ
り算出された肌の領域の重要度に基づいて、画像が、肌
画像であることの確からしさを算出させ、判定結果とし
て出力させることを特徴とする。According to the image identification method of the third aspect, the skin area importance calculator 31 determines the skin area from each candidate of the skin area, and calculates the importance of the skin area. Based on the importance of the skin area calculated by the skin area importance calculator 31, the importance calculator 32 calculates the likelihood that the image is a skin image, and outputs it as a determination result. Characterize.
【0013】[0013]
【作用】請求項1に記載の画像識別方式においては、肌
色の画素を抽出し、その各画素から、肌の領域の候補を
検出する。そして、肌の領域の各候補から、肌の領域を
決定し、その決定結果に基づいて、画像が、肌画像であ
るかどうかを判定する。従って、正確に肌の識別を行う
ことが可能となる。According to the image identifying method of the first aspect, the pixels of the skin color are extracted, and the candidate of the skin region is detected from each of the pixels. Then, the skin region is determined from each candidate of the skin region, and it is determined whether the image is a skin image based on the determination result. Therefore, it is possible to accurately identify the skin.
【0014】請求項2に記載の画像識別方式において
は、肌領域検出器6に、肌の領域の各候補の重要度に基
づいて、肌の領域の各候補の中から、肌の領域を決定さ
せる。そして、肌画像判定器7に、肌領域検出器6の決
定結果に基づいて、画像が、肌画像であるか否かを判定
させ、画像が、肌画像であるか否かの2値的な判定結果
を出力させる。従って、本方式を、例えば静止画像に適
用した場合、その静止画像における人物の肌の識別を正
確に行うことができる。In the image identification method according to the second aspect, the skin area detector 6 determines the skin area from each of the skin area candidates based on the importance of each of the skin area candidates. Let Then, the skin image determiner 7 is caused to determine whether or not the image is a skin image based on the determination result of the skin area detector 6, and a binary value indicating whether the image is a skin image or not. Output the judgment result. Therefore, when this method is applied to a still image, for example, the skin of a person in the still image can be accurately identified.
【0015】請求項3に記載の画像識別方式において
は、肌領域重要度算出器31に、肌の領域を決定させる
とともに、その重要度を算出させる。そして、肌画像重
要度算出器32に、肌領域重要度算出器31により算出
された肌の領域の重要度に基づいて、画像が、肌画像で
あることの確からしさを算出させ、判定結果として出力
させる。従って、本方式を動画像に適用した場合、時間
とともに変化する動画像における人物の肌を、時間的連
続性を損なうことなく識別するようにすることができ
る。In the image identifying method according to the third aspect, the skin area importance calculator 31 determines the skin area and calculates the importance thereof. Then, the skin image importance calculator 32 is caused to calculate the certainty that the image is a skin image based on the importance of the skin area calculated by the skin area importance calculator 31, and as the determination result. Output. Therefore, when this method is applied to a moving image, it is possible to identify the skin of a person in a moving image that changes with time without impairing temporal continuity.
【0016】[0016]
【実施例】図1は、本発明を適用した画像識別装置の一
実施例の構成を示すブロック図である。座標変換器1
は、例えば3原色であるR,G,Bのディジタルデータ
を色の3属性を表す輝度L、色相H、クロマCに変換す
る。フレームメモリ2は、座標変換器からの1画面(フ
レーム)分の輝度L、色相H、クロマCを記憶する。肌
色画素検出器3は、座標変換器1からの1画面分の輝度
L、色相H、クロマCからその画面における肌色の条件
(以下、肌色条件という)を適応的に設定する。さら
に、肌色画素検出器3は、フレームメモリ2から順次各
画素の輝度L、色相H、クロマCのデータを読み込み、
それらが設定した肌色条件を満たすかどうかを判定し
て、肌色条件を満たさない画素はフレームメモリ2から
削除する。1 is a block diagram showing the configuration of an embodiment of an image identifying apparatus to which the present invention is applied. Coordinate converter 1
Converts the digital data of R, G, and B, which are the three primary colors, into a luminance L, a hue H, and a chroma C representing the three attributes of the color. The frame memory 2 stores the brightness L, hue H, and chroma C for one screen (frame) from the coordinate converter. The flesh color pixel detector 3 adaptively sets the flesh color condition (hereinafter referred to as flesh color condition) on the screen from the luminance L, hue H, and chroma C for one screen from the coordinate converter 1. Further, the skin color pixel detector 3 sequentially reads the data of the luminance L, the hue H, and the chroma C of each pixel from the frame memory 2,
It is determined whether or not they satisfy the set skin color condition, and pixels that do not satisfy the skin color condition are deleted from the frame memory 2.
【0017】肌領域候補検出器4は、肌領域の候補を検
出する。即ち、肌領域候補検出器4は、例えばフレーム
メモリ2において互いに連結している肌色画素を1つの
領域としてグルーピングし、同じ領域に含まれる全ての
画素に同一ラベルを割り付けることによって、肌色の領
域、つまり肌の領域(肌領域)の候補を求める。フレー
ムメモリ5は、肌領域候補検出器4によって画素に割り
あたられたラベルを記憶する。The skin region candidate detector 4 detects skin region candidates. That is, the skin region candidate detector 4 groups the skin color pixels connected to each other in the frame memory 2 as one region and assigns the same label to all the pixels included in the same region, thereby That is, candidates for the skin region (skin region) are obtained. The frame memory 5 stores the label assigned to the pixel by the skin area candidate detector 4.
【0018】肌領域検出器6は、肌領域候補検出器4に
より検出された肌領域の候補の中から、実際に人物の肌
に対応すると考えられる領域を決定(検出)する。この
とき、各肌領域の候補の重要度と肌らしさを表す肌指数
(いずれも後述する)を用いるが、これらの値はフレー
ムメモリ2および5に記憶されたデータから計算する。
さらに、肌領域検出器6は、肌領域を決定(検出)する
ことができた場合には、そのことを示すコントロール信
号cntl1を肌画像判定器7に送出する。肌画像判定
器7は、肌領域検出器6からコントロール信号cntl
1を受信すると、即ち装置に入力された1画面分の画像
から、少なくとも1つの肌領域が決定(検出)される
と、その入力画像が、人物の肌に対応する肌の領域を含
む肌画像と判定し、判定結果として0および1のうち
の、例えば1を出力する。また、画像判定器7は、肌領
域検出器6からコントロール信号cntl1が出力され
なかったときには、入力画像が肌画像でないと判定し、
判定結果として0および1のうちの、例えば0を出力す
る。The skin area detector 6 determines (detects) an area that is considered to actually correspond to the skin of a person from among the skin area candidates detected by the skin area candidate detector 4. At this time, a skin index (which will be described later) indicating the importance of each skin area candidate and skin-likeness is used, and these values are calculated from the data stored in the frame memories 2 and 5.
Furthermore, when the skin region detector 6 can determine (detect) the skin region, it sends a control signal cntl1 indicating that to the skin image judging device 7. The skin image determiner 7 receives the control signal cntl from the skin area detector 6.
When 1 is received, that is, when at least one skin area is determined (detected) from the image for one screen input to the device, the input image is a skin image including the skin area corresponding to the skin of the person. And outputs 1 out of 0 and 1 as the determination result. Further, when the skin area detector 6 does not output the control signal cntl1, the image determiner 7 determines that the input image is not a skin image,
For example, 0 is output from 0 and 1 as the determination result.
【0019】以上のように構成される画像識別装置にお
いては、まず画像の、例えばRGBデータが座標変換器
1に入力される。座標変換器1では、例えばNTSCテ
レビジョン信号の輝度・色差空間YUVを用いて、RG
Bから輝度L、色相H、クロマCへの座標変換が行われ
る。In the image identifying apparatus configured as described above, first, for example, RGB data of an image is input to the coordinate converter 1. In the coordinate converter 1, for example, the luminance / color difference space YUV of the NTSC television signal is used to calculate the RG
Coordinate conversion from B to luminance L, hue H, and chroma C is performed.
【0020】即ち、座標変換器1は、式 Y=0.299R+0.587G+0.114B U=B−Y V=R−Y にしたがってRGBをYUVに変換し、さらに式 L=Y H=tan-1(V/U) C=(U2+V2)1/2 にしたがってYUVをLHCに変換する。That is, the coordinate converter 1 converts RGB into YUV according to the equation Y = 0.299R + 0.587G + 0.114B U = BY V = RY, and further the equation L = Y H = tan -1. Convert YUV to LHC according to (V / U) C = (U 2 + V 2 ) 1/2 .
【0021】なお、座標変換器1においては、NTSC
テレビジョン信号の輝度・色差空間YUVだけでなく、
例えばCIE(国際照明委員会)に制定されているL*
a*b*均等空間などを用いて、RGBからLHCへの座
標変換を行うようにすることができる。In the coordinate converter 1, the NTSC
Not only the luminance / color difference space YUV of the television signal,
For example, L * established by CIE (International Commission on Illumination)
The coordinate conversion from RGB to LHC can be performed using an a * b * uniform space or the like.
【0022】即ち、この場合、まず式 X=0.6067R+0.1736G+0.2001B Y=0.2988R+0.5868G+0.1144B Z=0.0661G+1.1150B ・・・(1) にしたがってRGBをCIEのXYZ表示系に変換し、
さらに式 L*=116(Y/Y0)1/3−16 a*=500((X/X0)1/3−(Y/Y0)1/3) b*=200((Y/Y0)1/3−(Z/Z0)1/3) ・・・(2) にしたがってXYZをL*a*b*に変換する。そして、
式 L=L* H=tan-1(b*/a*) C=(a*2+b*2)1/2 にしたがってL*a*b*をRGBに変換する。That is, in this case, first, the RGB is CIE XYZ display system according to the formula X = 0.6067R + 0.1736G + 0.2001B Y = 0.988R + 0.5868G + 0.1144B Z = 0.0661G + 1.1150B (1) Converted to
Further formula L * = 116 (Y / Y 0) 1/3 -16 a * = 500 ((X / X 0) 1/3 - (Y / Y 0) 1/3) b * = 200 ((Y / Y 0) 1/3 - to convert the XYZ into L * a * b * according to (Z / Z 0) 1/3) ··· (2). And
Convert L * a * b * to RGB according to the equation L = L * H = tan −1 (b * / a * ) C = (a * 2 + b * 2 ) 1/2 .
【0023】但し、式(2)におけるX0,Y0,Z
0は、白色基準面におけるX,Y,Zの値であり、本来
は光源やカメラのホワイトバランスなどによって変化す
るものであるが、ここでは、例えばR,G,Bがそれぞ
れ最大値をとるときのX,Y,Zとする。即ち、X0,
Y0,Z0は、式(1)において、R=G=B=1とした
ときのX,Y,Zとする。However, X 0 , Y 0 , Z in the equation (2)
0 is the value of X, Y, Z on the white reference plane, which originally changes depending on the white balance of the light source or the camera, but here, for example, when R, G, B take the maximum values, respectively. X, Y, Z of. That is, X 0 ,
Y 0 and Z 0 are X, Y and Z when R = G = B = 1 in the equation (1).
【0024】また、式(2)は、式 X/X0,Y/Y0,Z/Z0>0.008856 が成立するときの定義式(近似式)であり、従ってこれ
が成立しないときは、他の近似式によりXYZをL*a*
b*に変換する必要がある。The expression (2) is a defining expression (approximate expression) when the expressions X / X 0 , Y / Y 0 , Z / Z 0 > 0.008856 are satisfied. , XYZ to L * a *
Needs to be converted to b * .
【0025】この近似式および上述の色空間の詳細は、 ・池田、「色彩工学の基礎」、朝倉書店 ・G.Wyszecki and W.S.stiles, "Color Science: Conce
pts and Methods, Quantitative Data and Formulae",
Wiley ・日本色彩学会、「色彩ハンドブック」、東京大学出版
会 などに記載されているので、ここではその説明は省略す
る。For details of this approximate expression and the above-mentioned color space, see: Ikeda, "Basics of Color Engineering", Asakura Shoten. G. Wyszecki and WSstiles, "Color Science: Conce.
pts and Methods, Quantitative Data and Formulae ",
Wiley ・ Since it is described in the Color Society of Japan, "Color Handbook", The University of Tokyo Press, etc., its explanation is omitted here.
【0026】以上のようにして、座標変換器1でRGB
からLHCへの変換がなされた後、この輝度L、色相
H、クロマCは、フレームメモリ2に入力され、フレー
ムメモリ2は、1画面分の輝度L、色相H、クロマCを
記憶する。As described above, the coordinate converter 1 performs RGB
After conversion from LHC to LHC, the luminance L, hue H, and chroma C are input to the frame memory 2, and the frame memory 2 stores the luminance L, hue H, and chroma C for one screen.
【0027】さらに、輝度L、色相H、クロマCは、肌
色画素検出器3にも入力され、そこで、肌色の画素が検
出される。Further, the luminance L, the hue H and the chroma C are also input to the skin color pixel detector 3, where the skin color pixels are detected.
【0028】即ち、肌色画素検出器3は、図2に示すよ
うに、色相判定器11、輝度範囲検出器12、クロマ範
囲検出器13、および肌色判定器14から構成され、ま
ず色相判定器11で、座標変換器1からの各画素のLH
Cのうち、色相Hが、式 Hmin<H<Hmax ・・・(3) を満たすか否かが判定される。That is, as shown in FIG. 2, the flesh color pixel detector 3 is composed of a hue deciding unit 11, a luminance range detector 12, a chroma range detecting unit 13, and a flesh color deciding unit 14, and the hue deciding unit 11 first. Then, the LH of each pixel from the coordinate converter 1
Of C, it is determined whether the hue H satisfies the formula H min <H <H max (3).
【0029】ここで、Hmin,Hmaxはあらかじめ設定さ
れた値で、肌色の色相がとり得る最小値、最大値をそれ
ぞれ表す。Here, H min and H max are preset values and represent the minimum and maximum values that the hue of the skin color can take.
【0030】そして、画素の色相Hが、式(3)を満た
すと判定された場合、その画素の輝度LとクロマCが、
輝度範囲検出器12、クロマ範囲検出器13に出力され
る。輝度範囲検出器12またはクロマ範囲検出器13で
は、まず1画面分の画素のうち、色相判定回路11から
供給された、式(3)を満たす画素、即ち、肌色の色相
を有する画素の輝度LまたはクロマCの平均値Laveま
たはCaveがそれぞれ算出される。そして、この輝度L
の平均値LaveまたはクロマCの平均値Caveから、肌色
とみなし得る輝度またはクロマの最大値LmaxまたはC
maxと、最小値Lmi nまたはCminが、次式にしたがって
それぞれ計算される。When it is determined that the hue H of the pixel satisfies the expression (3), the luminance L and the chroma C of the pixel are
It is output to the luminance range detector 12 and the chroma range detector 13. In the luminance range detector 12 or the chroma range detector 13, among the pixels for one screen, the luminance L of the pixel supplied from the hue determination circuit 11 and satisfying the expression (3), that is, the pixel having the hue of the skin color. Alternatively, the average value L ave or C ave of the chroma C is calculated, respectively. And this brightness L
Maximum value L max, or C from the mean value C ave of the average value L ave or chroma C, the brightness or chroma, which may regarded as skin color
and max, the minimum value L mi n or C min is calculated respectively according to the following equation.
【0031】Lmin=Lave×p Lmax=Lave×q Cmin=Cave×r Cmax=Cave×s 但し、p,q,r,sは、平均値LaveまたはCaveに対
してどの程度の値を最小値、最大値とするかを決める定
数で、式 p,r≦1.0 q,s≧1.0 の範囲における適当な値にあらかじめ設定されている。L min = L ave × p L max = L ave × q C min = C ave × r C max = C ave × s where p, q, r, and s are average values L ave or C ave On the other hand, it is a constant that determines what value is the minimum value and the maximum value, and is preset to an appropriate value in the range of the equations p, r ≦ 1.0 q, s ≧ 1.0.
【0032】輝度範囲検出器12で計算されたLmaxお
よびLminと、クロマ範囲検出器13で計算されたCmax
およびCminは、肌色判定器14に供給される。肌色判
定器14では、まずフレームメモリ2(図1)から、1
画面分の各画素のL,H,Cデータが順次読み出され、
それが式(3)乃至(5)をそれぞれ満たすか否かが判
定される。 Lmin<L<Lmax ・・・(4) Cmin<C<Cmax ・・・(5)L max and L min calculated by the luminance range detector 12 and C max calculated by the chroma range detector 13.
And C min are supplied to the skin color determiner 14. In the skin color determiner 14, first, from the frame memory 2 (FIG. 1), 1
L, H, C data of each pixel for the screen are sequentially read out,
It is determined whether it satisfies the equations (3) to (5), respectively. L min <L <L max ... (4) C min <C <C max ... (5)
【0033】そして、肌色判定器14は、式(3)乃至
(5)のうち、1つでも成立しないものがある場合に
は、その画素をフレームメモリ2上から除去する。If any of the expressions (3) to (5) is not satisfied, the skin color determiner 14 removes the pixel from the frame memory 2.
【0034】ここで、一般に、輝度L、色相H、クロマ
Cの色空間では、色再現域の問題で輝度Lが大きい場合
にはクロマCが大きい値をとり得ないので、LHCすべ
てが、装置の語長によって表現し得る最大の値v
max(例えば、語長8ビットの場合にはvmax=255)
をとるような色は現実には存在することはなく、従って
LHCすべてをvmaxとした画素を、肌色以外の画素を
表すものとして用いても問題は生じない。In general, in the color space of the luminance L, the hue H, and the chroma C, the chroma C cannot take a large value when the luminance L is large due to the problem of the color reproduction range. Maximum value v that can be expressed by the word length of
max (for example, v max = 255 when the word length is 8 bits)
In reality, there is no such a color, and therefore there is no problem even if a pixel having all LHC as v max is used as a pixel other than the skin color.
【0035】そこで、本実施例においては、式(3)乃
至(5)のうちの1つでも満たさない画素、即ち、肌色
でない(と考えられる)画素のLHCすべてを、最大値
vma xに置き換え、フレームメモリ2に保存し直すこと
により、その画素のLHCをフレームメモリ2上から除
去したものとみなすようにすることとする。[0035] Therefore, in this embodiment, the pixels that do not satisfy any one of expressions (3) to (5), i.e., all non-skin color (considered) a pixel LHC, the maximum value v ma x By replacing and re-storing in the frame memory 2, the LHC of the pixel is regarded as removed from the frame memory 2.
【0036】ここで、画像に現れる肌の色(いわゆる肌
色ではなく、人間の肌の部分の色)は、個人差や照明条
件により変化するので、上述の式(3)乃至(5)によ
る制限が厳しすぎると、実際には肌である領域を抽出す
ることができないときが生じる。The skin color appearing in the image (not the so-called skin color, but the color of the human skin portion) changes depending on individual differences and lighting conditions, and therefore is limited by the above equations (3) to (5). If is too strict, there are times when it is not possible to extract a region that is actually skin.
【0037】しかしながら、後述する処理を行う前の、
この段階で、実際には肌である領域を抽出し損なうこと
は、最終的に、その実際に肌である領域を検出すること
ができなくなることから、式(3)乃至(5)のうち、
例えば式(3)による色相Hの制限を、ほぼすべての肌
の色相を含むように、ゆるめに設定しておくようにする
(なぜなら、式(4)および(5)における閾値
Lmin,Lmax,Cmin,Cmaxは、上述のように式(3)
の制限にかからなかった画素のL,Cから算出されるの
で、式(3)の制限をゆるめにすることは、式(3)乃
至(5)すべての制限をゆるめにすることに等しいた
め)。However, before performing the processing described later,
At this stage, failing to extract a region that is actually skin eventually makes it impossible to detect the region that is actually skin. Therefore, in formulas (3) to (5),
For example, the limitation of the hue H according to Expression (3) is set loosely so as to include almost all skin hues (because of the thresholds L min and L max in Expressions (4) and (5)). , C min and C max are expressed by the equation (3) as described above.
Since it is calculated from L and C of the pixels that have not been subjected to the restriction of (3), loosening the restriction of Expression (3) is equivalent to loosening all the restrictions of Expressions (3) to (5). ).
【0038】また、これにより、肌の画素と考えられる
輝度またはクロマの平均値LaveまたはCaveが、極端に
大きく、あるいは小さくなり、その結果、式(4),
(5)におけるLmin,Cmin,Lmax,Cmaxが、不適当
な値となる(大きく、あるいは小さくなりすぎる)こと
が考えられる。Further, as a result, the average value L ave or C ave of the luminance or chroma considered to be the pixel of the skin becomes extremely large or small, and as a result, the equation (4),
It is possible that L min , C min , L max , and C max in (5) become improper values (become too large or too small).
【0039】そこで、Lmin,Cminに上限を、Lmax,
Cmaxに下限を設け、Lmin,Cminが小さくなりすぎた
り、Lmax,Cmaxが大きくなりすぎたりすることを禁止
しておくようにする。Therefore, the upper limits of L min and C min are set to L max ,
A lower limit is set for C max to prevent L min and C min from becoming too small, and L max and C max from becoming too large.
【0040】なお、本来、色味はクロマで表現される
が、実際には、クロマが同じ画素でも、輝度が小さいほ
ど色味が高いように感じられるので、色味による制限に
は、クロマだけではなく、クロマと輝度の比C/Lを用
いた方が適当であると考えられる。特に、輝度の低い画
素に対しては、このクロマと輝度の比により色味を制限
することは、クロマだけによるよりも有効であると考え
られる。Originally, the tint is expressed in chroma, but in reality, even if the pixels have the same chroma, it seems that the tint is higher as the luminance is smaller. Therefore, the only limitation to the tint is the chroma. Instead, it is considered more appropriate to use the chroma / luminance ratio C / L. In particular, for pixels with low luminance, it is considered that limiting the tint by the ratio of the chroma and the luminance is more effective than using only the chroma.
【0041】また、C/Lは、輝度Lが高ければ、クロ
マCが高くても、その値は大きくならないが、経験的に
は、輝度Lが高くなっても、肌色として許容することの
できるクロマCの上限値は、それほど大きくならない。
従って、輝度Lの高い画素に対しては、そのクロマCに
上限を設けるようにするのが適当であると考えられる。The value of C / L does not increase even if the chroma C is high if the luminance L is high, but empirically, even if the luminance L is high, it can be accepted as a skin color. The upper limit of chroma C does not become so large.
Therefore, it is considered appropriate to set an upper limit on the chroma C for a pixel having a high luminance L.
【0042】そこで、肌色画素検出器3においては、上
述の式(3)乃至(5)によるL,H,Cの制限に、式
(6)によって示される画素の色味による制限を加えて
肌色の画素を検出するようにする方が好ましい。 C/L<c×Lmax ・・・(6) 但し、cは所定の定数。Therefore, in the flesh color pixel detector 3, the flesh color is limited by adding the limitation of the hue of the pixel shown by the equation (6) to the limitation of L, H, C according to the above equations (3) to (5). It is preferable to detect the pixels of. C / L <c × L max (6) where c is a predetermined constant.
【0043】以上のようにして、肌色画素検出器3によ
り、肌色でない画素のLHCが、フレームメモリ2から
除去された後、フレームメモリ2に残された画素、即ち
肌色の画素(以下、肌色画素という)のセグメント化
(肌の領域の候補の検出)が、肌領域候補検出器4(図
1)によって行われる。As described above, after the skin color pixel detector 3 removes the LHC of the pixel which is not the skin color from the frame memory 2, the pixels left in the frame memory 2, that is, the skin color pixels (hereinafter, skin color pixels). Segmentation (detection of candidates for the skin region) is performed by the skin region candidate detector 4 (FIG. 1).
【0044】即ち、肌領域候補検出器4は、フレームメ
モリ2に記憶された肌色画素を参照し、その近傍画素を
調べることによってラベル付けを行い、肌の領域の候補
を構成していく。なお、画素が肌色画素であるか否かの
判定は、LHCすべての値がvmaxであるかどうかによ
ってなされる(L,H,Cのうち、少なくとも1つがv
maxでなければ、その画素を肌色画素と判定する)。That is, the skin region candidate detector 4 refers to the skin color pixels stored in the frame memory 2 and performs labeling by examining the pixels in the vicinity of the skin color pixels to construct skin region candidates. Whether or not the pixel is a skin color pixel is determined by whether or not all the values of LHC are v max (at least one of L, H, and C is v
If it is not max , the pixel is determined as a skin color pixel).
【0045】具体的には、まず、フレームメモリ2に記
憶されたある画素x0が肌色画素である場合、例えば図
3(a)に示すような、その画素x0に隣接する4画素
(図中、影を付してある部分)が、それぞれ肌色画素で
あるか否かが判定される。そして、例えば画素x0の右
上の画素xnが、肌色画素であった場合には、フレーム
メモリ5上の画素xnの値が参照され、その画素にすで
にラベルが割り当てられているかが判定される。Specifically, first, when a pixel x 0 stored in the frame memory 2 is a skin color pixel, for example, four pixels adjacent to the pixel x 0 as shown in FIG. It is determined whether each of the middle and shaded portions) is a skin color pixel. Then, for example, when the upper right pixel x n of the pixel x 0 is a skin color pixel, the value of the pixel x n in the frame memory 5 is referred to, and it is determined whether a label has already been assigned to that pixel. It
【0046】判定の結果、画素xnに、ラベルtnが既に
割り当てられている場合には、そのラベルと同一のラベ
ルtnが画素x0に割り当てられる。これは、フレームメ
モリ5上の画素x0にラベルtnを書き込むことによって
行われる。As a result of the judgment, when the label t n is already assigned to the pixel x n , the same label t n as that label is assigned to the pixel x 0 . This is done by writing the label t n to the pixel x 0 on the frame memory 5.
【0047】なお、肌色画素x0の4つの隣接画素のう
ちの2つ以上の画素が肌色画素で、且つそれらに既にラ
ベルが割り付けられており、しかもそれらが異なったラ
ベルである場合には、肌領域候補検出回路4(図1)
は、そのいずれかのラベルを画素x0に割り当て、フレ
ームメモリ5に記憶させるとともに、それらすべてのラ
ベルが隣接していることを、その内蔵するメモリ(図示
せず)のラベルテーブルに記憶するようになされてい
る。If two or more pixels out of the four adjacent pixels of the skin color pixel x 0 are skin color pixels, and labels are already assigned to them, and they are different labels, Skin area candidate detection circuit 4 (FIG. 1)
Assigns any one of the labels to the pixel x 0 , stores it in the frame memory 5, and stores the fact that all the labels are adjacent to each other in the label table of its built-in memory (not shown). Has been done.
【0048】即ち、例えば図3(b)に示すように、肌
色画素x0の4つの隣接画素のうちの3つが肌色画素
で、且つ既にラベルが割り付けられており、しかも、3
つの肌色画素のうちの2つのラベルが、tmであるとと
もに、残りの1つのラベルがtnである場合、肌領域候
補検出回路4において、画素x0には、ラベルtmおよび
tnのうちの、例えばラベルtmが割り当てられ、フレー
ムメモリ5の画素x0に対応する位置(アドレス)に登
録されるとともに、例えば図3(c)に示すようなラベ
ルテーブルに、ラベルtmとラベルtnが隣接しているこ
とが記憶される。That is, for example, as shown in FIG. 3B, three of the four adjacent pixels of the skin color pixel x 0 are skin color pixels, and the label has already been assigned, and 3
When two of the two skin color pixels have the label t m and the remaining one label has the label t n , the pixel x 0 in the skin region candidate detection circuit 4 has the labels t m and t n . of out, for example, a label t m is assigned, while being registered in the position (address) corresponding to the pixel x 0 of the frame memory 5, for example, in the label table as shown in FIG. 3 (c), the label t m and the label It is remembered that t n are adjacent.
【0049】但し、隣接画素のいずれにもラベルが、ま
だ割り当てられていない場合には、肌領域候補検出器4
によって新たなラベルが発生され、それが画素x0に割
り当てられるようになされている。However, if no label has been assigned to any of the adjacent pixels, the skin area candidate detector 4
Creates a new label, which is assigned to pixel x 0 .
【0050】図3(c)のラベルテーブルにおいては、
その左のコラムには、これまでに発生されたラベルが、
その発生順に記述され、また、その右のコラムには、左
コラムに記述されたラベルに対して隣接するラベルが記
述される。さらに、右コラムには、左コラムのラベルよ
りも先に発生されたラベルが記述される。In the label table of FIG. 3C,
In the column to the left, the labels generated so far are
The labels are described in the order in which they occur, and in the right column, the label adjacent to the label described in the left column is described. Further, in the right column, the label generated before the label in the left column is described.
【0051】従って、図3(c)のラベルテーブルに示
すように、ラベルtmはラベルtnよりも先に発生されて
いる場合、この2つのラベルtmとtnが割り当てられた
画素が隣接しているときには、ラベルtnに対応する右
コラムにtmが記述される。Therefore, as shown in the label table of FIG. 3C, when the label t m is generated before the label t n, the pixel to which the two labels t m and t n are assigned is When they are adjacent to each other, t m is described in the right column corresponding to the label t n .
【0052】但し、ラベルtmに対応するコラムにラベ
ルtkが、既に書き込まれており(ラベルtmの画素がそ
れより先に発生されたラベルtkの画素と隣接してお
り)、ラベルtmが割り当てられた画素と、それより後
に発生されたラベルtnが割り当てられた画素が隣接し
ているときには、図3(d)に示すように、ラベルtk
が、ラベルtnに対応するコラムに書き込まれる。[0052] However, the label t m label t k in the corresponding column to the (is adjacent the label t m of the pixel is labeled t k generated earlier than the pixel) already written and the label when the pixels t m is assigned, the pixels labeled t n generated is assigned to a later it is adjacent, as shown in FIG. 3 (d), the label t k
Is written in the column corresponding to the label t n .
【0053】その後、さらに肌領域候補検出器4では、
フレームメモリ5に記憶されたラベルデータに対して再
ラベリングが行われる。これは、図4(a)に示すよう
に、上述した1回のラベリングでは、隣接しているのに
も関わらず異なるラベルが割り当てられているような画
素(画素からなる領域)が存在し得るからである。再ラ
ベリングは、1回目のラベリングにおいて作成した、ラ
ベルの隣接関係を保存したラベルテーブルに基づいて行
われる。Thereafter, in the skin area candidate detector 4,
Relabeling is performed on the label data stored in the frame memory 5. This is because, as shown in FIG. 4A, in the above-described one-time labeling, there may exist pixels (regions of pixels) to which different labels are assigned despite being adjacent. Because. The re-labeling is performed based on the label table created in the first labeling and storing the label adjacency relationship.
【0054】即ち、肌領域候補検出器4において、ラベ
ルテーブル(図3(c)または図3(d))が参照さ
れ、フレームメモリ5に記憶されたラベルのうち、隣接
ラベルがラベルテーブルに記述されているラベルが、隣
接ラベルに変換されることにより、隣接している肌色画
素は、すべて同一のラベルが割り当て直され、フレーム
メモリ5に記憶し直される。That is, in the skin area candidate detector 4, the label table (FIG. 3 (c) or FIG. 3 (d)) is referred to, and among the labels stored in the frame memory 5, the adjacent label is described in the label table. By converting the existing label into an adjacent label, adjacent skin color pixels are allotted with the same label and stored again in the frame memory 5.
【0055】これにより、例えば図4(a)に示すよう
に1回目のラベリングがなされた領域は、図4(b)に
示すように再ラベリングされる。As a result, for example, the region labeled for the first time as shown in FIG. 4 (a) is re-labeled as shown in FIG. 4 (b).
【0056】再ラベリングによって同一のラベルが割り
当てられた画素の集合は、1つの肌の領域候補とされ、
そのラベルの集合(t0,t1,t2, ・・・ )
は、肌領域候補検出器4から肌領域検出器6に出力され
る。A set of pixels to which the same label is assigned by relabeling is regarded as one skin area candidate,
The set of labels (t0, t1, t2, ...)
Is output from the skin area candidate detector 4 to the skin area detector 6.
【0057】なお、上述の場合、画素が肌色画素であれ
ば、必ずラベル付けを行うようにしたが、画素が肌色画
素であっても、その画素が、他の肌色画素と接する部分
が少ないときには、それが、ある物体(人間も含む)の
肌色の領域の端の部分であると考えられ、このような画
素を肌色画素として残しておくと、その画素を含む肌色
の領域が、他の物体の肌色の領域に接続してしまい、本
来2つの領域とされるべきところが、1つの領域にされ
る恐れがある。In the above case, if the pixel is a flesh color pixel, labeling is always performed. However, even if the pixel is a flesh color pixel, if that pixel has a small portion in contact with another flesh color pixel. , It is considered to be the edge part of the skin-colored area of a certain object (including human). If such a pixel is left as a skin-colored pixel, the skin-colored area including the pixel is There is a risk that the area will be connected to the flesh-colored area and the area originally supposed to be two areas will become one area.
【0058】そこで、画素が肌色画素であった場合、例
えば、その画素に隣接する周りの8つの画素(上、下、
左、右、左上、左下、右上、右下の画素)のうち、所定
の数以上の画素が肌色画素であったときのみ、その画素
にラベル付けを行うようにすることができる。Therefore, when the pixel is a skin color pixel, for example, eight surrounding pixels (upper, lower,
Of the left, right, upper left, lower left, upper right, and lower right pixels), the pixel can be labeled only when a predetermined number or more of pixels are skin color pixels.
【0059】肌領域検出器6は、例えば図5に示すよう
に、ヒストグラム生成器21、ヒストグラム解析器2
2、肌領域判定器23、領域解析器24から構成され、
肌領域候補検出器4によって検出された肌の領域の候補
から、肌の領域を決定する。The skin area detector 6 includes a histogram generator 21 and a histogram analyzer 2 as shown in FIG.
2, a skin area determiner 23, a region analyzer 24,
The skin region is determined from the skin region candidates detected by the skin region candidate detector 4.
【0060】即ち、まず領域解析器24において、フレ
ームメモリ5が参照され、同一ラベルにより構成された
肌の領域の各候補の大きさ、位置、及び穴の大きさが求
められ、これらの閾値処理が行われることにより、あま
り小さな領域や、画面上の隅に位置する領域、大きな穴
を有する領域は、肌の領域の候補(以下、肌領域候補と
いう)から削除される。That is, first, in the area analyzer 24, the frame memory 5 is referred to, and the size, position, and hole size of each candidate of the skin area constituted by the same label are obtained, and the threshold value processing is performed. As a result, the too small area, the area located at the corner on the screen, and the area having the large hole are deleted from the skin area candidates (hereinafter referred to as the skin area candidates).
【0061】ここで、領域の大きさとはその領域を構成
する画素の数とし、領域の位置は、その領域の重心座標
によって表わすものとする。また、領域の穴を、ある肌
領域候補における肌色画素で囲まれた、肌色でない画素
(非肌色画素)の集合と定義し、その画素数を穴の大き
さとする。Here, the size of the area is the number of pixels forming the area, and the position of the area is represented by the barycentric coordinates of the area. In addition, a hole in a region is defined as a set of non-skin color pixels (non-skin color pixels) surrounded by skin color pixels in a certain skin region candidate, and the number of pixels is defined as the size of the hole.
【0062】領域の大きさやその画面上の位置は、その
領域の画像における重要度を表わすものと考えられる。
これは、大きい領域や画面中央にある領域は一般的によ
く目立ち、画像の内容からもその重要性が高いと考えら
れるからである。一方、穴の大きさは領域の肌らしさを
表わす1つの量と考えられる。なぜならば、通常、肌の
領域は、肌色の画素で満たされており、従ってあまり大
きな穴を有さないと考えられる。もちろん、例えば顔な
どは、穴としての目や唇など肌色でない部分も含むが、
その大きさは顔全体の大きさに比べてそれほど大きなも
のではない。これに対し、肌でないものに対応する領域
には大きな穴が含まれている可能性がある。以上から、
領域の大きさ、重心座標、穴の大きさによる閾値処理
は、領域の重要度と肌らしさによって肌領域候補を、い
わば足切りする処理と考えることができる。The size of the area and its position on the screen are considered to represent the degree of importance of the area in the image.
This is because a large area or an area at the center of the screen is generally conspicuous, and it is considered that the importance is high also from the content of the image. On the other hand, the size of the hole is considered to be one amount that expresses the skin-likeness of the area. This is because the skin region is usually filled with skin-colored pixels and is therefore considered not to have a very large hole. Of course, for example, a face, etc., also includes non-skin-colored parts such as eyes and lips as holes,
Its size is not so large compared to the size of the whole face. On the other hand, a region corresponding to a non-skin may have a large hole. From the above,
The threshold value processing based on the size of the area, the barycentric coordinates, and the size of the hole can be considered as processing of cutting off the skin area candidate according to the importance of the area and the skin-likeness.
【0063】具体的には、領域解析器24において、閾
値処理が次のようにして行われる。まず領域の大きさに
ついては、その領域の肌色画素の画素数と、あらかじめ
設定された所定の閾値Thsizeとが比較され、肌色画素
の画素数が、閾値Thsizeより小さい場合、その領域
は、肌領域候補から除外される。Specifically, in the area analyzer 24, threshold processing is performed as follows. First, regarding the size of the area, the number of skin color pixels in the area is compared with a predetermined threshold value Th size set in advance. If the number of skin color pixels is smaller than the threshold Th size , the area is It is excluded from the skin area candidates.
【0064】ここで、閾値Thsizeは、画面全体の画素
数に対して、どの程度の大きさの領域を肌として検出す
るかを決めることにより設定される。Here, the threshold Th size is set by determining how large a region is detected as skin with respect to the number of pixels of the entire screen.
【0065】但し、全体的に暗い画像の場合、影などの
影響により肌領域候補検出器4により肌領域候補とされ
る領域が小さくなる傾向がある。そこで、画面全体の輝
度が低い場合には、閾値Thsizeを、例えば画面の平均
輝度の関数とし、小さめに設定するようにすることがで
きる。However, in the case of a dark image as a whole, there is a tendency that the area determined as the skin area candidate by the skin area candidate detector 4 becomes small due to the influence of the shadow or the like. Therefore, when the brightness of the entire screen is low, the threshold Th size can be set to a small value, for example, as a function of the average brightness of the screen.
【0066】そして、重心座標については、例えば式
(7)にしたがって領域の位置の重要度psが算出さ
れ、この重要度psが、所定の閾値Thpos(但し、T
hposは、あらかじめ設定された0.0以上1.0以下
の適当な値)より小さい場合、その領域は、肌領域候補
から除外される。For the barycentric coordinates, for example, the importance ps of the position of the area is calculated according to the equation (7), and the importance ps is a predetermined threshold Th pos (however, T
When h pos is smaller than a preset appropriate value of 0.0 or more and 1.0 or less), the area is excluded from the skin area candidates.
【0067】 ps=exp(−((dx/σx)2+(dy/σy)2)) ・・・(7) 但し、dx,dyは、それぞれ画面中心と領域の重心との
距離(画素数)の水平方向成分、垂直方向成分である。
また、σx,σyは、それぞれ水平方向、垂直方向の、重
要度psに与える影響度を調節するパラメータで適当な
値の固定値である。Ps = exp (-((d x / σ x ) 2 + (d y / σ y ) 2 )) (7) where d x and d y are the center of gravity of the screen and the center of gravity of the region, respectively. And the horizontal direction component and the vertical direction component of the distance (number of pixels).
Further, σ x and σ y are fixed parameters of appropriate values which are parameters for adjusting the degree of influence on the importance ps in the horizontal direction and the vertical direction, respectively.
【0068】重要度psは、領域の重心が画面中心に近
いほど大きな値をとり、逆に画面周辺になるほど小さな
値となり、従って領域の位置に対する、いわばスコアと
考えられる。The importance ps has a larger value as the center of gravity of the area is closer to the center of the screen, and conversely has a smaller value as the center of the screen is closer to the periphery of the screen.
【0069】なお、パラメータσx,σyは、上述のよう
に適当な値に固定するようにする他、例えば、肌領域候
補の形状に対応して適応的に変化させることができる。The parameters σ x and σ y may be fixed to appropriate values as described above, and may be adaptively changed according to the shape of the skin region candidate.
【0070】即ち、肌領域候補の形状が、例えば図6
(a)に示すように縦長の場合、この肌領域候補の、画
面上での重要性に対しては、その水平方向のずれが大き
く影響し、それに比較して垂直方向のずれはあまり影響
しないと考えられる。そこで、この場合、垂直方向のパ
ラメータσyを大きい値に設定し、肌領域候補の垂直方
向のずれにより、その重要度psが大きく変化しないよ
うにする。That is, the shape of the skin area candidate is, for example, as shown in FIG.
As shown in (a), in the case of the portrait orientation, the horizontal shift has a great influence on the importance of the skin region candidate on the screen, and the vertical shift has little effect on it. it is conceivable that. Therefore, in this case, the parameter σ y in the vertical direction is set to a large value so that the importance ps does not change significantly due to the vertical shift of the skin region candidate.
【0071】また、例えば図6(b)に示すように、肌
領域候補の形状が横長の場合、上述の場合と同様の理由
から、水平方向のパラメータσxを大きい値に設定する
ようにする。For example, as shown in FIG. 6B, when the shape of the skin area candidate is horizontally long, the horizontal parameter σ x is set to a large value for the same reason as above. .
【0072】さらに、式(7)のdx,dy,σx,σyの
単位を画素数とすると、その演算にあたっては、入力画
像が表示される画面の画素の縦横比を考慮する必要があ
る。これは、入力画像が表示される画面の画素の縦横比
が1:1でないと、肌領域候補が、実際に画面に表示さ
れる位置と、画素数から算出された位置にずれが生じ、
式(7)により得られた重要度psに、画面上での肌領
域候補の重要性が正しく反映されなくなるからである。Further, assuming that the unit of d x , d y , σ x , σ y in the equation (7) is the number of pixels, it is necessary to consider the aspect ratio of the pixels of the screen on which the input image is displayed. There is. This is because if the aspect ratio of the pixels of the screen on which the input image is displayed is not 1: 1, the skin area candidate is displaced from the position actually displayed on the screen and the position calculated from the number of pixels,
This is because the importance ps obtained by the equation (7) does not correctly reflect the importance of the skin area candidate on the screen.
【0073】次に、穴の大きさについては、穴の大きさ
(画素数)を肌領域候補の大きさ(画素数)によって除
算した値が所定の閾値Thhole(但し、Thholeは0.
0以上1.0以下のあらかじめ設定された適当な値)よ
り大きい場合、その領域は、肌領域候補から除外され
る。Next, regarding the size of the hole, a value obtained by dividing the size of the hole (the number of pixels) by the size of the skin area candidate (the number of pixels) is a predetermined threshold value Th hole (however, Th hole is 0.
If it is larger than 0 and equal to or less than 1.0 and is larger than a predetermined value, the area is excluded from the skin area candidates.
【0074】ここで、図7を参照して、領域の穴の大き
さを求める方法を説明する。まず、肌領域候補に対し
て、図7(a)に示すように左右両側から水平方向に走
査し、各ラインにおいて領域を構成する最も左の画素P
Lvと最も右の画素PRvを検出する。但し、添字のvは
ラインの番号を表わすものとする。Here, a method for obtaining the size of the hole in the area will be described with reference to FIG. First, as shown in FIG. 7A, the skin area candidate is horizontally scanned from the left and right sides, and the leftmost pixel P forming the area in each line is scanned.
L v the most right pixel PR v to detect. However, the subscript v represents the line number.
【0075】そして、ライン毎にPLvとPRvの間に存
在する非肌色画素の数をカウントし、すべてのラインに
対して得られた画素数の合計をNhとする。Then, the number of non-skin color pixels existing between PL v and PR v is counted for each line, and the total number of pixels obtained for all lines is Nh.
【0076】さらに、図7(b)に示すように垂直方向
の走査を行い、上述の場合と同様にして、すべてのライ
ンに対して得られた非肌色画素の数の合計Nvを求め
る。そして、得られたNh、Nvのうち、大きい方を穴
の大きさとする。Further, as shown in FIG. 7B, scanning is performed in the vertical direction, and the total number Nv of the non-skin color pixels obtained for all the lines is obtained in the same manner as described above. The larger one of the obtained Nh and Nv is set as the size of the hole.
【0077】なお、この方法では、厳密に穴と呼べるも
の以外のもの大きさも検出することになる。例えば、図
7(c)に示すような領域の場合、斜線を付した部分
は、厳密な意味では穴ではないが、本方法では穴として
その大きさが計算される。しかしながら、感覚的にはこ
のような領域は穴とみなしても問題はないと考えられ
る。In this method, sizes other than those that can be strictly called holes are also detected. For example, in the case of the area shown in FIG. 7C, the hatched portion is not a hole in the strict sense, but the size is calculated as a hole in this method. However, it is considered that there is no problem in sensuously considering such an area as a hole.
【0078】また、上述の方法で、水平と垂直両方向の
走査を行うのは、次の理由による。即ち、例えば図7
(c)に示すような領域に対して、水平方向の走査のみ
を行なった場合、穴として検出されるのは図7(d)に
おいて斜線を付した部分となるが、これは感覚的な穴の
大きさを正しく反映していない。The scanning in both the horizontal and vertical directions is performed by the above method for the following reason. That is, for example, in FIG.
When only the horizontal scanning is performed on the area as shown in (c), what is detected as a hole is a shaded portion in FIG. 7D, but this is a sensational hole. Does not correctly reflect the size of.
【0079】そこで、この場合、感覚的な穴の大きさを
正しく反映している、垂直方向の走査によって得られる
方(図7(c))を用いるようにする。また、これとは
逆に、水平方向の走査が有効な場合も考えられるため、
上述したように、ここでは両者の結果の大きい方を用い
るようにする。Therefore, in this case, the one obtained by scanning in the vertical direction (FIG. 7 (c)), which correctly reflects the size of the sensory hole, is used. On the contrary, since it is possible that horizontal scanning is effective,
As described above, the larger one of the two results is used here.
【0080】以上のような、領域の大きさ、位置、及び
穴の大きさの閾値処理によって残った肌領域候補のラベ
ルの集合(t0',t1',t2',・・・ )は、領域解析
器24からヒストグラム生成器21(図5)に出力され
る。A set of labels (t 0 ′, t 1 ′, t 2 ′, ...) Of skin region candidates remaining by the threshold processing of the region size, position, and hole size as described above. Is output from the area analyzer 24 to the histogram generator 21 (FIG. 5).
【0081】ヒストグラム生成器21では、領域解析器
24からの各ラベルに対応する肌領域候補を構成する画
素の位置(アドレス)がフレームメモリ5(図1)から
検出され、その位置(アドレス)に基づいて、画素の輝
度L、クロマCがフレームメモリ2から読み出される。
そして、これらのデータから、クロマ/輝度(C/L)
が計算され、そのヒストグラムが各肌領域候補ごとに生
成される。In the histogram generator 21, the position (address) of the pixel forming the skin region candidate corresponding to each label from the region analyzer 24 is detected from the frame memory 5 (FIG. 1) and the position (address) is detected. Based on this, the pixel brightness L and chroma C are read from the frame memory 2.
Then, from these data, chroma / luminance (C / L)
Is calculated and its histogram is generated for each skin area candidate.
【0082】ヒストグラム生成器21で生成された各肌
領域候補のC/Lのヒストグラムは、ヒストグラム解析
器22に入力され、そこでヒストグラムの特徴として、
そのピークの位置、ピークの幅、及びピークの数が検出
される。The C / L histogram of each skin area candidate generated by the histogram generator 21 is input to the histogram analyzer 22, where the histogram features are:
The position of the peak, the width of the peak, and the number of peaks are detected.
【0083】さらに、ヒストグラム解析器22におい
て、肌領域候補のC/Lのヒストグラムのピークの位
置、ピークの幅、またはピークの数に基づいて、その肌
領域候補のいわば肌らしさの3つの指数、即ちピーク位
置肌指数posIdx、ピーク幅肌指数widIdx、
またはピーク数肌指数numIdxがそれぞれ次のよう
にして計算される。Further, in the histogram analyzer 22, based on the peak position, the peak width, or the number of peaks of the C / L histogram of the skin region candidate, the three indices of the so-called skin-likeness of the skin region candidate, That is, the peak position skin index posIdx, the peak width skin index widIdx,
Alternatively, the peak number skin index numIdx is calculated as follows.
【0084】(a) ピーク位置肌指数posIdx C/Lのヒストグラムのピークは、図8(a)に示すよ
うに、ピークが複数の位置に存在していることが考えら
れるので、これらの平均位置を計算し、それをピークの
位置peakPosとすることとする。(A) Peak position The peaks of the histogram of the skin index posIdx C / L are considered to be present at a plurality of positions as shown in FIG. 8 (a). And let it be the position of the peak, peakPos.
【0085】即ち、位置p1,p2,...,pNにおい
てN個のピークが得られ、それぞれの位置におけるヒス
トグラムの度数がf1,f2,...,fNであったとす
ると、ピークの位置は次式により計算される。 peakPos=Σ(pi×fi)/Σfi 但し、Σはi=1乃至Nのサメーションを意味する。That is, the positions p 1 , p 2 ,. . . , P N , N peaks are obtained, and the histogram frequencies at the respective positions are f 1 , f 2 ,. . . , F N , the position of the peak is calculated by the following equation. peakPos = Σ (p i × f i ) / Σf i where Σ means the summation of i = 1 to N.
【0086】そして、このピーク位置peakPos
が、例えば図8(b)に示す変換グラフにしたがって、
ピーク位置肌指数posIdxに変換される。Then, this peak position peakPos
However, for example, according to the conversion graph shown in FIG.
It is converted to the peak position skin index posIdx.
【0087】即ち、肌におけるC/Lのヒストグラムの
ピークの位置は、経験的に大きな値をとらないことを利
用し、ピーク位置肌指数posIdxは、ピーク位置p
eakPosが、所定の閾値Thpeakpos以下である場
合には、最大値としての1.0に設定され、閾値Th
peakposより大きい場合には、ピーク位置peakPo
sと閾値Thpeakposとの差に応じて、小さい値に設定
される。That is, the fact that the peak position of the C / L histogram on the skin does not take a large value empirically is used, and the peak position skin index posIdx is the peak position p.
When eakPos is less than or equal to the predetermined threshold Th peakpos, it is set to 1.0 as the maximum value, and the threshold Th
If peakpos greater than the peak position peakPo
A small value is set according to the difference between s and the threshold Th peakpos .
【0088】(b) ピーク幅肌指数widIdx 図9(a)に示すように、まず、ヒストグラムにおける
最大度数fmaxが検出され、そのα%の値fα(=fmax
×α/100)が算出される。そして、ヒストグラムが
左と右両方からそれぞれ走査され、度数が最初にfαに
なる位置がそれぞれpL,pRとされて、これらの値の差
(pR−pL)がピークの広がり(ピークの幅)peak
Widとされる。(B) Peak width skin index widIdx As shown in FIG. 9A, first, the maximum frequency f max in the histogram is detected, and the value of α% f α (= f max)
× α / 100) is calculated. Then, the histogram is scanned from both left and right, the positions at which the frequency first becomes fα are p L and p R , respectively, and the difference between these values (p R −p L ) is the peak spread (peak Width) peak
Wid.
【0089】そして、このピークの幅peakWid
が、例えば図9(b)に示す変換グラフにしたがって、
ピーク幅肌指数widIdxに変換される。The width of this peak, peakWid
However, for example, according to the conversion graph shown in FIG.
Converted to peak width skin index widIdx.
【0090】即ち、肌領域ではピークの広がりがあまり
大きくならないことから、ピーク幅肌指数widIdx
は、ピークの幅peakWidの値が、所定の閾値Th
peak wid以下の場合には、最大値としての1.0に設定
され、閾値Thpeakwidより大きい場合には、ピークの
幅peakWidと閾値Thpeakwidとの差に応じて、
小さい値に設定される。That is, since the peak spread does not become so large in the skin region, the peak width skin index widIdx.
Indicates that the value of the peak width peakWid is a predetermined threshold Th.
if: peak wid is set to 1.0 as a maximum value, when the threshold Th Peakwid larger, depending on the difference between the width peakWid and the threshold Th Peakwid peak,
Set to a small value.
【0091】(c) ピーク数肌指数numIdx ピークの数はヒストグラムの1つの特徴と考えられる
が、それを正しく求めることは困難である。なぜなら
ば、ヒストグラムに多数存在する極大値の中からどれを
ピークとして検出するかは、検出法によって異なり、閾
値などのパラメータが違えば、容易にその数も変化して
しまうからである。(C) Number of peaks Skin index numIdx The number of peaks is considered to be one of the features of the histogram, but it is difficult to find it correctly. This is because which of the maximum values existing in a large number in the histogram is detected as a peak depends on the detection method, and if the parameters such as the threshold value are different, the number easily changes.
【0092】そこで、本実施例においては、検出したピ
ークの数でなく、次のようにして得られる値を、ヒスト
グラムのピークの数peakNumとすることとする。Therefore, in the present embodiment, the value obtained as follows instead of the number of detected peaks is taken as the number of peaks peakNum in the histogram.
【0093】即ち、例えば図10(a)に示すようなヒ
ストグラムが与えられた場合、2つの領域A1,A2の面
積a1,a2から、次式にしたがってピークの数peak
Numが算出される。 peakNum=a1/(a1+a2) ・・・(8)That is, for example, when a histogram as shown in FIG. 10A is given, the number of peaks peak is calculated from the areas a 1 and a 2 of the two areas A 1 and A 2 according to the following equation.
Num is calculated. peakNum = a 1 / (a 1 + a 2 ) ... (8)
【0094】なお、図10(a)において、領域A1は
ヒストグラム上で検出された隣どうしのピークを直線で
結んで得られた折れ線とヒストグラムの包絡線で挟まれ
た部分(斜線部分)であり、また、領域A2は、ヒスト
グラムの包絡線と横軸で挟まれた部分である。In FIG. 10 (a), the area A 1 is a portion (shaded portion) sandwiched between the polygonal line obtained by connecting the adjacent peaks detected on the histogram with a straight line and the envelope of the histogram. The area A 2 is a portion sandwiched between the envelope of the histogram and the horizontal axis.
【0095】従って、式(8)より得られるピークの数
peakNumは、ヒストグラムのピークの数が多いと
大きくなるが、各ピークの位置関係にも依存する。それ
ぞれのピークが近い位置に存在している場合には小さい
値となるが、互いに離れるほどその値は大きくなる。ピ
ークが1つならば領域A1は存在せず、ピークの数pe
akNumもゼロとなる。これらのことから、式(8)
に定義したピークの数peakNumはピークの多峰性
を表すものと考えられ、ピークの数と相関を持ち、しか
もピークの数の曖昧性をも含んでいる。Therefore, the number peakNum of peaks obtained from the equation (8) increases as the number of peaks in the histogram increases, but also depends on the positional relationship of each peak. The values are small when the respective peaks are located close to each other, but the values increase as the peaks are separated from each other. If there is one peak, the area A 1 does not exist, and the number of peaks pe
akNum is also zero. From these things, equation (8)
It is considered that the number of peaks PeakNum defined in 1 above represents the multimodality of the peaks, has a correlation with the number of peaks, and also includes ambiguity in the number of peaks.
【0096】そして、このピークの数peakNum
が、例えば図10(b)に示す変換グラフにしたがっ
て、ピーク数肌指数numIdxに変換される。Then, the number peakNum of this peak
Is converted into the peak number skin index numIdx according to the conversion graph shown in FIG. 10B, for example.
【0097】即ち、肌領域ではピークの数が一つである
ことを利用し、ピーク数肌指数numIdxは、ピーク
の数peakNumが0の場合、1.0に設定され、以
下ピークの数peakNumが大きくなるにしたがって
小さい値に設定される。従って、ピーク数肌指数num
Idxは、いわば1.0から多峰性を減算したものと考
えることができる。That is, utilizing the fact that the number of peaks is one in the skin region, the peak number skin index numIdx is set to 1.0 when the number of peaks peakNum is 0, and the number of peaks peakNum is It is set to a smaller value as it gets larger. Therefore, the peak number skin index num
Idx can be considered, so to speak, as 1.0 minus multimodality.
【0098】以上のようにして算出されたピーク位置肌
指数posIdx、ピーク幅肌指数widIdx、およ
びピーク数肌指数numIdxは、ヒストグラム解析器
22から肌領域判定器23(図5)に送られる。肌領域
判定器23では、各肌領域候補のピーク位置肌指数po
sIdx、ピーク幅肌指数widIdx、およびピーク
数肌指数numIdxから、その肌領域候補の総合的な
肌指数skinIdxが、次式にしたがって計算され
る。 skinIdx=A×posIdx+B×widIdx+C×numIdx ・・・(9)The peak position skin index posIdx, the peak width skin index widIdx, and the peak number skin index numIdx calculated as described above are sent from the histogram analyzer 22 to the skin area determiner 23 (FIG. 5). The skin area determiner 23 determines the peak position skin index po of each skin area candidate.
From sIdx, peak width skin index widIdx, and peak number skin index numIdx, a comprehensive skin index skinIdx of the skin region candidate is calculated according to the following equation. skinIdx = A × posIdx + B × widIdx + C × numIdx (9)
【0099】但し、A,B,Cは重み係数で、これらは
実画像を学習データとして、式(10)の値、即ち、自
乗誤差σ2が最小となるように最小二乗法によって求め
られる。 σ2=Σ(1.0−skinIdx)2+Σ(0.0−skinIdx)2 ・・・(10) なお、式(10)の右辺の第1項のΣは、学習データと
しての実画像における、実際の肌の領域から算出された
肌指数skinIdxに関するサメーションを意味し、
その第2項のΣは、学習データとしての実画像におけ
る、実際の肌の領域以外の領域から算出された肌指数s
kinIdxに関するサメーションを意味する。よっ
て、肌指数skinIdxは、その値が1.0に近いほ
ど肌らしいことを示すことになる。However, A, B, and C are weighting factors, which are obtained by the least squares method so that the value of the equation (10), that is, the squared error σ 2, is minimized using the actual image as the learning data. σ 2 = Σ (1.0-skinIdx) 2 + Σ (0.0-skinIdx) 2 (10) Note that Σ in the first term on the right side of Expression (10) in the actual image as learning data , Means the summation regarding the skin index skinIdx calculated from the actual skin area,
The second term Σ is a skin index s calculated from a region other than the actual skin region in the real image as the learning data.
It means the summation regarding kinIdx. Therefore, the skin index skinIdx indicates that the closer the value is to 1.0, the more skin-like.
【0100】式(9)にしたがって肌指数skinId
xを算出後、さらに、肌領域判定器23は、各肌領域候
補の肌指数skinIdxを閾値処理し、即ち肌指数s
kinIdxが所定の閾値より大きく、その肌領域候補
が肌領域と見なすことができるか否かを判定する。そし
て、肌領域判定器23は、肌領域候補のうちの少なくと
も1つが肌領域と見なすことができると判定した場合、
即ち肌領域候補のうちの少なくとも1つを肌領域として
決定した場合、コントロール信号cntl1を肌画像判
定器7(図1)に出力する。Skin index skinId according to equation (9)
After calculating x, the skin area determiner 23 further thresholds the skin index skinIdx of each skin area candidate, that is, the skin index s.
It is determined whether or not kinIdx is larger than a predetermined threshold and the skin area candidate can be regarded as a skin area. When the skin area determiner 23 determines that at least one of the skin area candidates can be regarded as a skin area,
That is, when at least one of the skin region candidates is determined as the skin region, the control signal cntl1 is output to the skin image determiner 7 (FIG. 1).
【0101】肌画像判定器7は、肌領域検出器6(肌領
域判定器23)よりコントロール信号cntl1を受信
すると、装置に入力された画像が、肌を含む肌画像であ
ると判定し、判定結果としての0および1のうちの1を
図示せぬ処理回路に出力する。When the skin image determiner 7 receives the control signal cntl1 from the skin area detector 6 (skin area determiner 23), the skin image determiner 7 determines that the image input to the apparatus is a skin image including skin, and makes a determination. The resultant 0 and 1 of 1 are output to a processing circuit (not shown).
【0102】図示せぬ処理回路では、肌画像判定器7か
ら、入力画像が肌画像であるという判定結果を受信する
と、例えばその入力画像に対して、肌の領域の画質が最
適になるように、入力画像の画質調整などがなされる。In the processing circuit (not shown), when the determination result that the input image is the skin image is received from the skin image determiner 7, the image quality of the skin area is optimized for the input image, for example. , The image quality of the input image is adjusted.
【0103】以上のようにして、パラメータの異なる4
種類の静止画像P1,P2,P3,P4が肌画像である
か否かを判定した実験(シミュレーション)結果を図1
1に示す。As described above, four parameters having different parameters are used.
FIG. 1 shows a result of an experiment (simulation) for determining whether or not the types of still images P1, P2, P3, P4 are skin images.
Shown in 1.
【0104】なお、図中、正答率は、次式により算出し
たものである。 正答率=正答数/全画像数 但し、正答数とは、肌画像に対し、肌を含むという判定
結果が得られた数と、肌画像以外の画像に対し、肌を含
まないという判定結果が得られた数との和である。In the figure, the correct answer rate is calculated by the following equation. Correct answer rate = number of correct answers / total number of images However, the number of correct answers is the number of times that a determination result that the skin image includes the skin is obtained and that the determination result that the image other than the skin image does not include the skin is included. It is the sum of the numbers obtained.
【0105】図から、ほぼ完全に画像が肌画像である
か、あるいはそうでないかが識別されていることが判
る。From the figure, it can be seen that it is almost completely identified whether the image is a skin image or not.
【0106】なお、25枚のP2画像のうち、1枚に関
しては、誤った判定がなされたが、これは黒人女性の顔
画像であり、シミュレーションにおいては、黄色人種を
対象として、図12に示すように閾値やその他係数など
の設定を行ったので、この画像を肌画像として識別でき
なかったのはやむを得ないといえる。It should be noted that one of the 25 P2 images was erroneously determined, but this is a face image of a black woman. Since the thresholds and other coefficients are set as shown, it can be said that it is unavoidable that this image cannot be identified as a skin image.
【0107】ところで、図1に示す装置を、静止画像に
適用した場合には、図11で説明したように、有効な結
果が得られるが、動画像に適用した場合には、フレーム
あるいはフィールドごとに、その動画像が肌画像か否か
の判定がなされることになるので、動画像の時間的連続
性に対する問題が生じる。By the way, when the apparatus shown in FIG. 1 is applied to a still image, an effective result is obtained as described with reference to FIG. Moreover, since it is determined whether or not the moving image is a skin image, there is a problem with respect to temporal continuity of the moving image.
【0108】即ち、例えば人物に対してズームインする
シーンなどのように、肌領域の大きさが徐々に大きくな
っていく場合、最初のうちは肌領域が小さいために肌画
像とは判定されないが、肌領域がある大きさになった瞬
間に、突然肌画像と判定される状況が生じる。このよう
に、画像が連続して変化しているのにも関わらず、その
途中で、突然判定結果が変化(逆転)してしまうのは、
ある意味で動画像に対する判定結果に、その時間的連続
性が正しく反映されていないといえる。That is, when the size of the skin area gradually increases, such as a scene in which a person zooms in, a skin image is not initially determined because the skin area is small, but At the moment when the skin area reaches a certain size, a situation occurs where the skin image is suddenly determined. In this way, the judgment result suddenly changes (reverses) in the middle of the process, even though the image changes continuously.
In a sense, it can be said that the temporal continuity is not correctly reflected in the determination result for the moving image.
【0109】そこで、図13は、本発明を適用した画像
識別装置の第2実施例の構成を示すブロック図である。
この装置は、肌領域候補検出器4で検出された肌領域候
補の重要度を算出する肌領域重要度算出器31、または
肌領域重要度算出器31から出力される重要度に基づい
て、入力画像が肌画像かどうかの判定結果としての重要
度を算出する肌画像重要度算出器32が、肌領域検出器
6または肌画像判定器7に代えてそれぞれ設けられてい
る他は、図1の画像識別装置と同様に構成されており、
画像が肌画像であるかどうかの判定結果を、連続的な値
をとる重要度Sidxとして出力するようになされてい
る。Therefore, FIG. 13 is a block diagram showing the configuration of the second embodiment of the image identifying apparatus to which the present invention is applied.
This device is based on a skin area importance calculator 31 for calculating the importance of the skin area candidates detected by the skin area candidate detector 4 or an importance output from the skin area importance calculator 31. A skin image importance degree calculator 32 that calculates the degree of importance as a determination result of whether an image is a skin image is provided instead of the skin area detector 6 or the skin image determiner 7, respectively. It has the same configuration as the image identification device,
The determination result as to whether or not the image is a skin image is output as importance Sidx that takes continuous values.
【0110】このように構成される画像識別装置におい
ては、動画像のフレームあるいはフィールドごとのRG
Bデータが入力されると、座標変換器1、フレームメモ
リ2、肌色画素検出器3、肌領域候補検出器4、および
フレームメモリ5において、図1における場合と同様の
処理が行われ、肌領域候補t0,t1,・・・が、肌領域
候補検出器4から肌領域重要度算出器31に出力され
る。In the image discriminating apparatus having such a configuration, the RG for each frame or field of a moving image is
When the B data is input, the same processing as in FIG. 1 is performed in the coordinate converter 1, the frame memory 2, the skin color pixel detector 3, the skin area candidate detector 4, and the frame memory 5, and the skin area is processed. The candidates t 0 , t 1 , ... Are output from the skin region candidate detector 4 to the skin region importance calculator 31.
【0111】肌領域重要度算出器31は、例えば図14
に示すようにヒストグラム生成器41、ヒストグラム解
析器42、肌領域判定器43、重要度算出器44、およ
び領域解析器45から構成され、肌領域候補検出器4に
よって検出された各肌領域候補tの重要度imp[t]
を計算する。The skin area importance degree calculator 31 is, for example, as shown in FIG.
Each of the skin area candidates t detected by the skin area candidate detector 4 is composed of a histogram generator 41, a histogram analyzer 42, a skin area determiner 43, an importance calculator 44, and an area analyzer 45 as shown in FIG. Importance of imp [t]
To calculate.
【0112】即ち、肌領域重要度算出器31では、まず
領域解析器45において、図5に示した肌領域検出器6
の領域解析器24における処理と同様の処理が行われ
る。つまり、領域解析器45は、同一ラベルにより構成
された各肌領域候補の大きさ、位置、及び穴の大きさを
求め、閾値処理を行う。That is, in the skin area importance calculator 31, first, in the area analyzer 45, the skin area detector 6 shown in FIG.
Processing similar to the processing in the area analyzer 24 of is performed. In other words, the area analyzer 45 obtains the size, position, and hole size of each skin area candidate formed by the same label, and performs threshold processing.
【0113】但し、領域解析器45では、閾値処理は、
穴の大きさによってのみ行われる。即ち、まず穴の大き
さ(画素数)が肌領域候補の大きさ(画素数)によって
除算され、その値が所定の閾値Thholeより大きい領域
が、肌領域候補から除外される。そして、その結果残っ
た各肌領域候補のラベルの集合(t0',t1',t2',・
・・ )が、領域解析器45からヒストグラム生成器4
1に出力される。However, in the area analyzer 45, the threshold processing is
Only done by the size of the hole. That is, first, the size of the hole (the number of pixels) is divided by the size of the skin region candidate (the number of pixels), and a region whose value is larger than a predetermined threshold Th hole is excluded from the skin region candidates. Then, as a result, a set of labels (t 0 ′, t 1 ′, t 2 ′, ...
..) is the area analyzer 45 to the histogram generator 4
It is output to 1.
【0114】さらに、領域解析器45においては、閾値
処理の結果残った肌領域候補のラベルtmをインデック
スとする、領域の大きさおよび重心座標の記述された、
例えば図15に示すようなテーブル(以下、パラメータ
テーブルという)が作成される。このパラメータテーブ
ルは、重要度算出器44に出力され、そこで記憶され
る。Further, in the area analyzer 45, the size of the area and the coordinates of the center of gravity are described with the label t m of the skin area candidate remaining as a result of the threshold processing as an index.
For example, a table as shown in FIG. 15 (hereinafter referred to as a parameter table) is created. This parameter table is output to the importance calculator 44 and stored therein.
【0115】ヒストグラム生成器41、またはヒストグ
ラム解析器42では、図5に示した肌領域検出器6のヒ
ストグラム生成器21、またはヒストグラム解析器22
とそれぞれ同様の処理が行われ、各肌領域候補のピーク
位置肌指数posIdx、ピーク幅肌指数widId
x、およびピーク数肌指数numIdxが肌領域判定器
43に出力される。In the histogram generator 41 or the histogram analyzer 42, the histogram generator 21 or the histogram analyzer 22 of the skin area detector 6 shown in FIG. 5 is used.
The same process is performed for each of the skin area candidates, the peak position skin index posIdx, and the peak width skin index widId.
x and the peak number skin index numIdx are output to the skin area determining unit 43.
【0116】肌領域判定器43は、図5の肌領域判定器
23における場合と同様にして、ヒストグラム解析器4
2からの各肌領域候補のピーク位置肌指数posId
x、ピーク幅肌指数widIdx、およびピーク数肌指
数numIdxから、式(9)にしたがって各肌領域候
補の総合的な肌指数skinIdxを算出し、閾値処理
を施す。そして、その結果残った肌領域候補、即ち肌領
域のラベル(t0'',t1'',・・・)が、肌領域判定器
43から重要度算出器44に出力される。The skin area determiner 43 operates in the same manner as in the skin area determiner 23 of FIG.
Peak position skin index posId of each skin region candidate from 2
Based on x, the peak width skin index widIdx, and the peak number skin index numIdx, the comprehensive skin index skinIdx of each skin region candidate is calculated according to Expression (9), and threshold processing is performed. Then, the remaining skin area candidates, that is, the skin area labels (t 0 ″, t 1 ″, ...) Are output from the skin area determiner 43 to the importance calculator 44.
【0117】重要度算出器44では、まず領域解析器4
5から送られてきたパラメータテーブル(図15)か
ら、肌領域判定器43より出力されたラベルに対応する
各領域の大きさと重心座標が読み出され、各領域tの重
要度imp[t]が次式にしたがって計算される。 imp[t]=area[t]×ps[t] ・・・(11) 但し、area[t]はラベルtの領域の大きさ(画素
数)を示す。また、ps[t]は、ラベルtの肌領域の
重心座標から、上述の式(7)にしたがって計算された
値である。In the importance calculator 44, first, the area analyzer 4
5, the size and barycentric coordinates of each area corresponding to the label output from the skin area determiner 43 are read from the parameter table (FIG. 15) sent from FIG. 5, and the importance level imp [t] of each area t is read. It is calculated according to the following formula. imp [t] = area [t] × ps [t] (11) where area [t] indicates the size (number of pixels) of the area of the label t. Further, ps [t] is a value calculated from the barycentric coordinates of the skin area of the label t according to the above equation (7).
【0118】重要度imp[t]は、area[t]ま
たはps[t]が大きいほど、即ち領域の大きさが大き
く、画面上の領域の位置(重心の位置)が中央にあるほ
ど、大きい値をとる。The degree of importance imp [t] increases as the area [t] or ps [t] increases, that is, the size of the area increases, and the position of the area on the screen (the position of the center of gravity) is in the center. Takes a value.
【0119】各肌領域に対する重要度imp[t]は、
肌領域重要度算出器31(重要度算出器44)から、肌
画像重要度算出器32(図13)に出力される。The importance level imp [t] for each skin area is
It is output from the skin area importance calculator 31 (importance calculator 44) to the skin image importance calculator 32 (FIG. 13).
【0120】肌画像重要度算出器32では、肌領域重要
度算出器31からの各肌領域に対する重要度imp
[t]を順次加算し、入力画像の肌画像としての重要度
(以下、肌画像重要度という)Sidxを次式に従って
算出する。In the skin image importance calculator 32, the importance imp for each skin area from the skin area importance calculator 31 is calculated.
[T] are sequentially added, and the importance of the input image as a skin image (hereinafter referred to as skin image importance) Sidx is calculated according to the following equation.
【0121】 Sidx=Σimp[t]/nL 但し、Sidx>1.0のとき、 Sidx=1.0 ・・・(12) ここで、Σは、肌領域として残った領域のラベルすべて
に関するサメーションを意味する。また、nLは単に正
規化するための定数であり、従って、本質的に肌画像重
要度Sidxの大きさを決定するのは、式(12)の右
辺の分子、即ち各肌領域の重要度の和(Σimp
[t])である。Sidx = Σimp [t] / nL However, when Sidx> 1.0, Sidx = 1.0 (12) Here, Σ is the summation regarding all the labels of the region remaining as the skin region. Means Further, nL is simply a constant for normalization, and therefore, the size of the skin image importance Sidx is essentially determined by the numerator on the right side of Expression (12), that is, the importance of each skin region. Sum (Σimp
[T]).
【0122】肌画像重要度Sidxは、重要度imp
[t]の大きい肌領域が多く含まれる画像に対しては、
その値が大きくなり、また、肌領域が全く含まれないよ
うな画像に対しては、その値がゼロとなる。この肌画像
重要度Sidxは、入力された画像が肌画像であるかど
うかの識別結果として、図示せぬ処理回路に出力され
る。The skin image importance Sidx is the importance imp
For images containing many skin areas with large [t],
The value becomes zero for an image in which the value becomes large and the skin region is not included at all. The skin image importance level Sidx is output to a processing circuit (not shown) as a result of identifying whether or not the input image is a skin image.
【0123】図示せぬ処理回路では、肌画像重要度算出
器32から、入力画像が肌画像であるかどうかという判
定結果としての肌画像重要度Sidxが受信され、例え
ばその入力画像に対して、肌画像重要度Sidxに対応
した画質調整がなされる。In the processing circuit (not shown), the skin image importance degree Sidx as a determination result as to whether the input image is a skin image is received from the skin image importance degree calculator 32. The image quality is adjusted according to the skin image importance level Sidx.
【0124】即ち、例えば肌画像重要度Sidxに対応
して、入力画像のクロマColdが、次式にしたがって新
たなクロマCnewに変換される。That is, for example, the chroma C old of the input image is converted into a new chroma C new according to the following equation, corresponding to the skin image importance Sidx.
【0125】肌色の領域に対しては、 Cnew=(1.0−Sidx)×(k−1)+1)×Cold その他の領域に対しては、 Cnew=k×Cold 但し、ここでは、肌色の領域とは、例えば肌色画素検出
器3で検出された肌色の画素からなる領域すべてを意味
するものとする。また、kは1以上の所定の定数。 ・・・(13)For the skin color area, C new = (1.0-Sidx) × (k−1) +1) × C old For other areas, C new = k × C old Then, the flesh-colored area means, for example, the entire area composed of the flesh-colored pixels detected by the flesh-colored pixel detector 3. Further, k is a predetermined constant of 1 or more. ... (13)
【0126】ここで、自然画像に現れる多くの物体につ
いては、その色のクロマが実際のものよりも高い方が好
まれる傾向にある。この傾向は、例えば空の青や草木の
緑などの、いわゆる3原色に関して特に顕著である。し
かしながら、人の肌の色に関しては、この傾向はあては
まらず、そのクロマが、他の色のクロマに比較して相対
的に低い方が好印象を与える傾向がある。Here, for many objects appearing in a natural image, it tends to be preferred that the chroma of the color is higher than the actual one. This tendency is particularly remarkable for so-called three primary colors such as blue in the sky and green in plants. However, this tendency does not apply to the color of human skin, and it is likely that the chroma is relatively low as compared with chromas of other colors.
【0127】上式によれば、肌色以外のクロマは常にk
(>1.0)倍され、一方肌のクロマは、画像の肌画像
重要度Sidxに対応した値にされるので、即ち肌画像
重要度Sidxが大きい画像ほど、肌のクロマが増加し
ないようにされるので、好印象を与える画像を提供する
ことができるようになる。According to the above equation, chroma other than skin color is always k
(> 1.0) times, while the skin chroma is set to a value corresponding to the skin image importance Sidx of the image, that is, the skin chroma is not increased as the skin image importance Sidx is larger. Therefore, it is possible to provide an image that gives a good impression.
【0128】さらに、この装置を、例えば人物に対して
ズームインする動画像に適用した場合には、図16に示
すような、連続的に変化する画像の肌画像重要度Sid
xを得ることができるようになり、即ち動画像の時間的
連続性を反映した判定結果を得ることができるようにな
り、この肌画像重要度Sidxを用い、式(13)にし
たがって動画像のクロマを変換することにより、人物の
肌の領域が徐々に増加するにつれ、その領域のクロマ
を、(背景のクロマに比べて相対的に)連続的に減少さ
せることができるようになるので、画質の印象が突然変
化するような画像処理を施すことを防止することができ
るようになる。Further, when this apparatus is applied to a moving image which zooms in on a person, for example, the skin image importance level Sid of continuously changing images as shown in FIG.
It is possible to obtain x, that is, it is possible to obtain a determination result that reflects the temporal continuity of the moving image, and using this skin image importance Sidx, the moving image of the moving image is calculated according to Expression (13). By converting the chroma, as the skin area of a person gradually increases, the chroma of that area can be continuously decreased (relative to the background chroma). It is possible to prevent the image processing from suddenly changing the impression of.
【0129】なお、本実施例では、画像のRGBデータ
を入力するようにしたが、例えばYUVデータやL*a*
b*データなどを入力するようにすることができる。但
し、この場合、座標変換器1の構成を、YUVデータや
L*a*b*データをLHCデータに変換することができ
るように変更する必要がある。In this embodiment, RGB data of an image is input, but for example YUV data or L * a * is input .
b * Data can be input. However, in this case, it is necessary to change the configuration of the coordinate converter 1 so that YUV data and L * a * b * data can be converted into LHC data.
【0130】さらに、本実施例においては、肌領域候補
から肌領域を決定するにあたって、C/Lのヒストグラ
ムを用いるようにしたが、輝度、色相、またはクロマの
ヒストグラムを用いるようにすることが考えられる。Further, in the present embodiment, the C / L histogram is used to determine the skin area from the skin area candidates, but it is conceivable to use the luminance, hue, or chroma histogram. To be
【0131】しかしながら、90枚程度の画像を用い
て、各画像の肌領域とそれ以外の領域のそれぞれについ
て輝度、色相、クロマのヒストグラムを作成したとこ
ろ、肌領域とそれ以外の領域において、それぞれの輝
度、色相、クロマのヒストグラムに顕著な差異はみられ
ず、従って輝度、色相、クロマのヒストグラムからは、
肌領域とそれ以外の領域とを区別することが困難である
という実験結果が得られた。However, when about 90 images were used and luminance, hue, and chroma histograms were created for the skin area and the other areas of each image, the histograms for the skin area and the other areas were obtained. There is no noticeable difference in the luminance, hue, and chroma histograms, so the luminance, hue, and chroma histograms show that
Experimental results have been obtained that it is difficult to distinguish the skin region from the other regions.
【0132】一方、同様にして作成したC/Lのヒスト
グラムの例を図17に示す。図17(a)は、肌領域の
ものであり、図17(b)および図17(c)は、肌領
域以外の領域のものである。On the other hand, an example of a C / L histogram created in the same manner is shown in FIG. FIG. 17A shows the skin area, and FIGS. 17B and 17C show the area other than the skin area.
【0133】ある1つの肌領域において、分光反射率が
一定であると仮定すると、そのC/Lヒストグラムは、 (C1)1つのピークを有する (C2)ピークの拡がり(幅)はさほど大きくない (C3)ピークの位置は、輝度に依存せず、個人差によ
り多少ばらつくが、肌としてとり得る範囲が存在する という性質を有すると考えることができる。Assuming that the spectral reflectance is constant in a certain skin region, the C / L histogram has (C1) one peak, and (C2) the spread (width) of the peak is not so large. The position of C3) peak can be considered to have the property that it does not depend on the brightness and varies to some extent depending on individual differences, but there is a range that can be taken as skin.
【0134】実験の結果、肌領域のC/Lのヒストグラ
ムは、上述の性質(C1)乃至(C3)をほぼ満たすの
に対し、肌領域以外の領域のC/Lのヒストグラムは、
上述の性質(C1)乃至(C3)のうちの少なくとも1
つを満たさなかったので、肌領域とそれ以外の領域とを
区別するにあたっては、C/Lヒストグラムを用いるの
が有効である。As a result of the experiment, the C / L histogram of the skin region almost satisfies the above properties (C1) to (C3), while the C / L histogram of the region other than the skin region is
At least one of the above properties (C1) to (C3)
Since it does not satisfy the requirement, it is effective to use the C / L histogram in distinguishing the skin region from the other regions.
【0135】また、本実施例では、肌色画素検出器3で
肌色の画素として検出された画素からなる領域を、肌領
域候補とするようにしたが、肌領域候補を求めるアルゴ
リズムはこれに限られるものではない。即ち、例えばよ
り高度なアルゴリズムに基づいて、肌領域候補を求める
ようにすることができる。この場合、画像が肌画像であ
るかどうかの識別精度を向上させることができることに
なるが、その反面、計算量や装置のコストが増加するこ
とになるので、これらをバランスさせて、肌領域候補を
求めるアルゴリズムを決める必要がある。Further, in the present embodiment, the area composed of the pixels detected as the skin color pixels by the skin color pixel detector 3 is set as the skin area candidate, but the algorithm for obtaining the skin area candidate is not limited to this. Not a thing. That is, for example, the skin area candidate can be obtained based on a more sophisticated algorithm. In this case, it is possible to improve the identification accuracy of whether or not the image is a skin image, but on the other hand, the amount of calculation and the cost of the device increase. It is necessary to decide the algorithm for obtaining.
【0136】さらに、本実施例においては、肌画像重要
度Sidxを式(12)に示すように、各肌領域の重要
度の和Σimp[t]を用いて算出するようにしたが、
これに限られるものではない。即ち、例えば次式に示す
ように、重要度imp[t]の最大値maxt(imp
[t])のみを用いて肌画像重要度Sidxを算出する
ようにすることができる。Further, in this embodiment, the skin image importance Sidx is calculated by using the sum Σimp [t] of the importance of each skin region as shown in the equation (12).
It is not limited to this. That is, for example, as shown in the following equation, the maximum value max t (imp
The skin image importance level Sidx can be calculated using only [t]).
【0137】 Sidx=maxt(imp[t])/nL 但し、Sidx>1.0のとき、 Sidx=1.0 ・・・(14)Sidx = max t (imp [t]) / nL However, when Sidx> 1.0, Sidx = 1.0 (14)
【0138】しかしながら、例えば2人の人物がすれ違
うようなシーンなどのように、複数の肌の領域が連結し
たり、また1つの肌の領域が2つに分離するような動画
像においては、最大の重要度maxt(imp[t])
となる領域が突然変化し、これにより式(14)にした
がって算出された肌画像重要度Sidxも、その値が突
然変化するときがある。However, in a moving image in which a plurality of skin areas are connected or one skin area is separated into two, such as a scene where two people pass each other, the maximum is Of importance max t (imp [t])
There is a case where the area that becomes is suddenly changed, and thereby, the value of the skin image importance Sidx calculated according to the equation (14) also suddenly changes.
【0139】従って、式(14)を用いた場合、肌画像
重要度Sidxが、いわば時間的に不連続になるときが
あるので、肌画像重要度Sidxの算出には、式(1
2)を用いる方が好ましい。Therefore, when the expression (14) is used, the skin image importance Sidx may become discontinuous in time, so to speak, the expression (1
It is preferable to use 2).
【0140】また、本実施例では、肌画像重要度Sid
xをそのまま、図示せぬ処理回路で用いるようにした
が、肌画像重要度Sidxに対し、例えば時間軸方向の
スムージングなどの処理を施してから用いるようにして
も良い。In this embodiment, the skin image importance Sid is
Although x is used as it is in a processing circuit (not shown), the skin image importance level Sidx may be used after being subjected to processing such as smoothing in the time axis direction.
【0141】さらに、本実施例においては、肌領域候補
のC/Lのヒストグラムに基づいて求めたピーク位置肌
指数posIdx、ピーク幅肌指数widIdx、およ
びピーク数肌指数numIdxを閾値処理だけに用いた
が、これらの肌らしさの度合いを示す特徴量を肌画像重
要度Sidxを算出するときに考慮するようにしても良
い。Further, in this embodiment, the peak position skin index posIdx, the peak width skin index widIdx, and the peak number skin index numIdx obtained based on the C / L histogram of the skin region candidates are used only for the threshold processing. However, the feature amount indicating the degree of skin-likeness may be considered when calculating the skin image importance Sidx.
【0142】[0142]
【発明の効果】請求項1に記載の画像識別方式によれ
ば、肌色の画素を抽出し、その各画素から、肌の領域の
候補を検出する。そして、肌の領域の各候補から、肌の
領域を決定し、その決定結果に基づいて、画像が、肌画
像であるかどうかを判定する。従って、正確に肌の識別
を行うことが可能となる。According to the image identification method of the first aspect, the pixels of the skin color are extracted, and the candidate of the skin region is detected from each of the pixels. Then, the skin region is determined from each candidate of the skin region, and it is determined whether the image is a skin image based on the determination result. Therefore, it is possible to accurately identify the skin.
【0143】請求項2に記載の画像識別方式によれば、
決定手段に、肌の領域の各候補の重要度に基づいて、肌
の領域の各候補の中から、肌の領域を決定させ、判定手
段に、決定手段の決定結果に基づいて、画像が、肌画像
であるか否かを判定させ、画像が、肌画像であるか否か
の2値的な判定結果を出力させる。従って、本方式を、
例えば静止画像に適用した場合、その静止画像における
人物の肌の識別を正確に行うことができる。According to the image identification method of claim 2,
The determining means, based on the importance of each candidate of the skin area, from among the candidates of the skin area, to determine the skin area, the determining means, based on the determination result of the determining means, the image, It is determined whether the image is a skin image, and a binary determination result indicating whether the image is a skin image is output. Therefore, this method
For example, when applied to a still image, the skin of a person in the still image can be accurately identified.
【0144】請求項3に記載の画像識別方式によれば、
決定手段に、肌の領域を決定させるとともに、その重要
度を算出させる。そして、判定手段に、決定手段により
算出された肌の領域の重要度に基づいて、画像が、肌画
像であることの確からしさを算出させ、判定結果として
出力させる。従って、本方式を動画像に適用した場合、
時間とともに変化する動画像における人物の肌を、時間
的連続性を損なうことなく識別することができる。According to the image identification system of claim 3,
The determining means determines the skin area and calculates the degree of importance thereof. Then, the determination unit is caused to calculate the certainty that the image is a skin image based on the importance of the skin region calculated by the determination unit, and outputs the determination result. Therefore, when this method is applied to moving images,
The skin of a person in a moving image that changes with time can be identified without impairing temporal continuity.
【図1】本発明を適用した画像識別装置の一実施例の構
成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of an embodiment of an image identification device to which the present invention has been applied.
【図2】図1の実施例の肌色画素検出器3のより詳細な
構成を示すブロック図である。FIG. 2 is a block diagram showing a more detailed configuration of a skin color pixel detector 3 of the embodiment of FIG.
【図3】図1の実施例における肌領域候補検出器4のラ
ベリング処理を説明する図である。FIG. 3 is a diagram illustrating labeling processing of a skin area candidate detector 4 in the embodiment of FIG.
【図4】図1の実施例における肌領域候補検出器4の再
ラベリング処理を説明する図である。FIG. 4 is a diagram illustrating re-labeling processing of a skin area candidate detector 4 in the embodiment of FIG.
【図5】図1の実施例の肌領域検出器6のより詳細な構
成を示すブロック図である。5 is a block diagram showing a more detailed configuration of a skin area detector 6 of the embodiment of FIG.
【図6】領域の形状と、画面上での領域の重要性の関係
について説明する図である。FIG. 6 is a diagram illustrating the relationship between the shape of a region and the importance of the region on the screen.
【図7】領域の穴について説明する図である。FIG. 7 is a diagram illustrating holes in a region.
【図8】ピーク位置と、ピーク位置肌指数の関係を説明
する図である。FIG. 8 is a diagram illustrating a relationship between a peak position and a peak position skin index.
【図9】ピーク幅と、ピーク幅肌指数の関係を説明する
図である。FIG. 9 is a diagram illustrating a relationship between a peak width and a peak width skin index.
【図10】ピーク数と、ピーク数肌指数の関係を説明す
る図である。FIG. 10 is a diagram illustrating a relationship between a peak number and a peak number skin index.
【図11】図1の実施例による実験結果を示す図であ
る。FIG. 11 is a diagram showing experimental results according to the example of FIG. 1.
【図12】図11の実験結果を得るにあたって用いた閾
値および係数を示す図である。12 is a diagram showing threshold values and coefficients used in obtaining the experimental results of FIG.
【図13】本発明を適用した画像識別装置の第2実施例
の構成を示すブロック図である。FIG. 13 is a block diagram showing a configuration of a second embodiment of an image identification device to which the present invention has been applied.
【図14】図13の実施例の肌領域重要度算出器31の
より詳細な構成を示すブロック図である。14 is a block diagram showing a more detailed configuration of the skin area importance calculator 31 of the embodiment of FIG.
【図15】パラメータテーブルを示す図である。FIG. 15 is a diagram showing a parameter table.
【図16】肌画像重要度算出器32より出力される、動
画像の肌画像重要度Sidxを示す図である。16 is a diagram showing a skin image importance Sidx of a moving image, which is output from a skin image importance calculator 32. FIG.
【図17】画像のクロマ/輝度のヒストグラムを示す図
である。FIG. 17 is a diagram showing a histogram of chroma / brightness of an image.
【図18】従来の、色空間に基づく肌領域の抽出を説明
する図である。FIG. 18 is a diagram illustrating conventional extraction of a skin area based on a color space.
1 座標変換器 2 フレームメモリ 3 肌色画素検出器 4 肌領域候補検出器 5 フレームメモリ 6 肌領域検出器 7 肌画像判定器 1 Coordinate converter 2 Frame memory 3 Skin color pixel detector 4 Skin area candidate detector 5 Frame memory 6 Skin area detector 7 Skin image determiner
Claims (3)
含む肌画像であるかどうかを判定する画像識別方式にお
いて、 肌色の画素を抽出する抽出手段と、 前記抽出手段により抽出された肌色の各画素から、前記
肌の領域の候補を検出する検出手段と、 前記検出手段により検出された肌の領域の各候補の中か
ら、前記肌の領域を決定する決定手段と、 前記決定手段の決定結果に基づいて、前記画像が、前記
肌画像であるかどうかを判定し、その判定結果を出力す
る判定手段とを有することを特徴とする画像識別方式。1. An image identification method for determining whether or not an image is a skin image including a skin area corresponding to a person's skin, and extracting means for extracting skin color pixels; From each pixel of the skin color, a detection unit that detects a candidate of the skin region, a determination unit that determines the skin region from among the candidates of the skin region detected by the detection unit, and the determination unit Based on the determination result of 1., the image identification method, comprising: determining whether the image is the skin image and outputting the determination result.
の重要度を計算し、前記重要度に基づいて、前記肌の領
域の各候補の中から、前記肌の領域を決定し、 前記判定手段は、前記決定手段の決定結果に基づいて、
前記画像が、前記肌画像であるか否かを判定し、前記画
像が、前記肌画像であるか否かの2値的な判定結果を出
力することを特徴とする請求項1に記載の画像識別方
式。2. The determining means calculates the importance of each candidate of the skin area, and determines the skin area from each candidate of the skin area based on the importance. The determination means, based on the determination result of the determination means,
The image according to claim 1, wherein it is determined whether the image is the skin image, and a binary determination result indicating whether the image is the skin image is output. Identification method.
の中から、前記肌の領域を決定するとともに、その重要
度を算出し、 前記判定手段は、前記決定手段により算出された肌の領
域の重要度に基づいて、前記画像が、前記肌画像である
ことの確からしさを算出し、前記判定結果として出力す
ることを特徴とする請求項1に記載の画像識別方式。3. The determining means determines the skin area from each candidate of the skin area and calculates the importance thereof, and the determining means determines the skin calculated by the determining means. 2. The image identification method according to claim 1, wherein the likelihood that the image is the skin image is calculated based on the importance of the area, and the image is output as the determination result.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP09266593A JP3387071B2 (en) | 1993-04-20 | 1993-04-20 | Image identification apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP09266593A JP3387071B2 (en) | 1993-04-20 | 1993-04-20 | Image identification apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH06309433A true JPH06309433A (en) | 1994-11-04 |
JP3387071B2 JP3387071B2 (en) | 2003-03-17 |
Family
ID=14060779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP09266593A Expired - Fee Related JP3387071B2 (en) | 1993-04-20 | 1993-04-20 | Image identification apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3387071B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0756426A3 (en) * | 1995-07-28 | 1997-08-06 | Sharp Kk | Specified image-area extracting method and device for producing video information |
JPH11136498A (en) * | 1997-08-29 | 1999-05-21 | Eastman Kodak Co | Computer program matter for red eye detection |
JP2002135559A (en) * | 2000-10-20 | 2002-05-10 | Noritsu Koki Co Ltd | Image forming device, image data processing method and recording medium with image data processing program recorded thereon |
JP2003022441A (en) * | 2001-07-06 | 2003-01-24 | Minolta Co Ltd | Method and program for area extraction, computer- readable recording medium with recorded program for area extraction, and device for area extraction. |
WO2005057908A1 (en) * | 2003-12-11 | 2005-06-23 | Fujitsu Limited | Image processing method, program, and device |
US7016075B1 (en) | 1999-09-22 | 2006-03-21 | Nec Corporation | Apparatus and method for automatic color correction and recording medium storing a control program therefor |
JP2007293528A (en) * | 2006-04-24 | 2007-11-08 | Konica Minolta Photo Imaging Inc | Imaging device, image processing device, image processing method and image processing program |
JP2009230556A (en) * | 2008-03-24 | 2009-10-08 | Seiko Epson Corp | Object detection device, object detection method, object detection program, and printer |
JP2010159230A (en) * | 2009-01-09 | 2010-07-22 | Nippon Menaade Keshohin Kk | Judging method of vividness of lip, powder composition and lip cosmetic |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4677753B2 (en) | 2004-10-01 | 2011-04-27 | 株式会社ニコン | Moving image processing apparatus and method |
JP2008219289A (en) * | 2007-03-01 | 2008-09-18 | Sanyo Electric Co Ltd | Video correction device, video display device, imaging apparatus and video correction program |
-
1993
- 1993-04-20 JP JP09266593A patent/JP3387071B2/en not_active Expired - Fee Related
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0756426A3 (en) * | 1995-07-28 | 1997-08-06 | Sharp Kk | Specified image-area extracting method and device for producing video information |
JPH11136498A (en) * | 1997-08-29 | 1999-05-21 | Eastman Kodak Co | Computer program matter for red eye detection |
US7016075B1 (en) | 1999-09-22 | 2006-03-21 | Nec Corporation | Apparatus and method for automatic color correction and recording medium storing a control program therefor |
JP2002135559A (en) * | 2000-10-20 | 2002-05-10 | Noritsu Koki Co Ltd | Image forming device, image data processing method and recording medium with image data processing program recorded thereon |
JP2003022441A (en) * | 2001-07-06 | 2003-01-24 | Minolta Co Ltd | Method and program for area extraction, computer- readable recording medium with recorded program for area extraction, and device for area extraction. |
WO2005057908A1 (en) * | 2003-12-11 | 2005-06-23 | Fujitsu Limited | Image processing method, program, and device |
US7394931B2 (en) | 2003-12-11 | 2008-07-01 | Fujitsu Limited | Image processing method, program, and apparatus |
JP2007293528A (en) * | 2006-04-24 | 2007-11-08 | Konica Minolta Photo Imaging Inc | Imaging device, image processing device, image processing method and image processing program |
JP2009230556A (en) * | 2008-03-24 | 2009-10-08 | Seiko Epson Corp | Object detection device, object detection method, object detection program, and printer |
JP2010159230A (en) * | 2009-01-09 | 2010-07-22 | Nippon Menaade Keshohin Kk | Judging method of vividness of lip, powder composition and lip cosmetic |
Also Published As
Publication number | Publication date |
---|---|
JP3387071B2 (en) | 2003-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8588309B2 (en) | Skin tone and feature detection for video conferencing compression | |
KR100997061B1 (en) | Video frame motion-based automatic region-of-interest detection | |
KR101012270B1 (en) | Methods and systems for converting images from low dynamic range to high dynamic range | |
KR100997060B1 (en) | Video sensor-based automatic region-of-interest detection | |
EP0756426B1 (en) | Specified image-area extracting method and device for producing video information | |
KR101437195B1 (en) | Detecting block artifacts in coded image and video | |
CN107730446B (en) | Image processing method, image processing device, computer equipment and computer readable storage medium | |
US7426296B2 (en) | Human skin tone detection in YCbCr space | |
US20080044102A1 (en) | Method and Electronic Device for Detecting a Graphical Object | |
WO2015070723A1 (en) | Eye image processing method and apparatus | |
JP3018914B2 (en) | Gradation correction device | |
CN107507144B (en) | Skin color enhancement processing method and device and image processing device | |
AU2010350738A1 (en) | Skin tone and feature detection for video conferencing compression | |
JP2001148863A (en) | White balance adjustment method and adjustment device | |
JP3387071B2 (en) | Image identification apparatus and method | |
CN107945106B (en) | Image processing method, image processing device, electronic equipment and computer readable storage medium | |
JP5286215B2 (en) | Outline extracting apparatus, outline extracting method, and outline extracting program | |
KR100439377B1 (en) | Human area detection for mobile video telecommunication system | |
JP2000348189A (en) | Picture processor | |
KR20030091471A (en) | YCrCb color based human face location detection method | |
KR101493900B1 (en) | Video processing method for detecting whether visibility pattern of gambling card is or not | |
JP2001045303A (en) | Image thresholding method | |
KR100751154B1 (en) | Apparatus and Method for removing mosquito noise | |
CN106611149B (en) | method and device for locating skin area | |
JP2000306098A (en) | Method and device for image processing and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20021209 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080110 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090110 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100110 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |