JP4049116B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP4049116B2
JP4049116B2 JP2004073278A JP2004073278A JP4049116B2 JP 4049116 B2 JP4049116 B2 JP 4049116B2 JP 2004073278 A JP2004073278 A JP 2004073278A JP 2004073278 A JP2004073278 A JP 2004073278A JP 4049116 B2 JP4049116 B2 JP 4049116B2
Authority
JP
Japan
Prior art keywords
data
skin
luminance
image
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004073278A
Other languages
Japanese (ja)
Other versions
JP2004173328A (en
Inventor
昌美 緒形
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004073278A priority Critical patent/JP4049116B2/en
Publication of JP2004173328A publication Critical patent/JP2004173328A/en
Application granted granted Critical
Publication of JP4049116B2 publication Critical patent/JP4049116B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Picture Signal Circuits (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、人物画像の肌領域を検出する機能を備える画像処理装置に関するものであり、テレビジョンやビデオカメラ、ビデオプリンタ等の自然画像を再現する装置に用いて好適な画像処理装置に関するものである。   The present invention relates to an image processing apparatus having a function of detecting a skin area of a person image, and relates to an image processing apparatus suitable for use in an apparatus for reproducing a natural image such as a television, a video camera, or a video printer. is there.

一般に、画像処理装置では、画像の内容を解析し認識するために対象物が抽出される。その手法として、例えば、エッジを検出することにより対象物の輪郭線を求める方法、画像を明るさの一様な部分領域に分割し対象物の占める領域を抽出する方法等がある。   In general, in an image processing apparatus, an object is extracted in order to analyze and recognize the contents of an image. For example, there are a method for obtaining an outline of an object by detecting an edge and a method for extracting an area occupied by the object by dividing an image into partial areas with uniform brightness.

また、テレビジョンやビデオカメラ、ビデオプリンタ等の自然画像を再現する装置では、上記画像処理装置により抽出した対象物に対して輪郭強調や階調変換等の処理が施される。これにより、画像の鮮鋭度やコントラスト感を向上させている。   In addition, in an apparatus that reproduces a natural image such as a television, a video camera, or a video printer, processing such as contour enhancement and gradation conversion is performed on the object extracted by the image processing apparatus. This improves the sharpness and contrast of the image.

ここで、上述のような画像処理装置で人物画像を処理する場合、上記画像処理装置の肌領域検出処理部では、人物の肌の領域(以下、肌領域と言う。)が検出される。上記肌領域を検出するために、上記肌領域検出処理部では、例えば、画素毎の色情報により肌領域を抽出する方法、或は、色情報から抽出した肌色画素を画像上における位置の連結性に着目して領域分割し各領域の特徴を解析することにより肌領域を抽出する方法等が用いられている。   Here, when a person image is processed by the image processing apparatus as described above, a skin area detection processing unit of the image processing apparatus detects a human skin area (hereinafter referred to as a skin area). In order to detect the skin area, the skin area detection processing unit, for example, a method of extracting the skin area based on color information for each pixel or the connectivity of the position of the skin color pixel extracted from the color information on the image. For example, a method of extracting a skin region by dividing the region and analyzing the characteristics of each region is used.

しかし、画素毎の色情報により肌領域を抽出する方法では、画像中の肌色の領域が全て肌領域と見なされてしまうため、多くの誤検出が生じてしまっていた。或は、領域分割により肌領域を抽出する方法では、領域分割処理と各領域の特徴解析処理に多くの計算時間が必要であったため、リアルタイム処理には不向きであった。   However, in the method of extracting the skin area based on the color information for each pixel, all the skin color areas in the image are regarded as the skin area, and many erroneous detections have occurred. Alternatively, the method of extracting a skin region by region division is not suitable for real-time processing because a lot of calculation time is required for region division processing and feature analysis processing of each region.

また、画像の鮮鋭度やコントラスト感を向上させるために、抽出した対象物に対して輪郭強調処理、或は、階調変換処理が施されるが、肌領域、特に、人物の顔の領域(以下、顔領域と言う。)に対しても輪郭強調処理、或は、階調変換処理が施されていた。このため、例えば、顔領域まで強調されてしまい、望ましくない結果をもたらすといった問題があった。   Further, in order to improve the sharpness and contrast of the image, the extracted object is subjected to contour enhancement processing or gradation conversion processing. The skin region, particularly the human face region ( Hereinafter, it is also referred to as a face area), and contour enhancement processing or gradation conversion processing has been performed. For this reason, for example, there is a problem that the face region is emphasized and an undesirable result is brought about.

そこで、本発明は、上述の如き従来の実情に鑑みてなされたものであり、次のような目的を有するものである。   Accordingly, the present invention has been made in view of the above-described conventional situation and has the following objects.

即ち、本発明の目的は、人物の顔領域を輪郭強調することなく他の領域を輪郭強調することにより、画像の鮮鋭度を向上させることができる画像処理装置を提供することにある。   That is, an object of the present invention is to provide an image processing apparatus capable of improving the sharpness of an image by enhancing the outline of another area without enhancing the outline of the face area of a person.

上述の課題を解決するために、本発明は、入力された人物画像データをデジタル化した輝度データと色差データに変換し、デジタル化された輝度データと色差データから肌領域を検出する肌領域検出手段を備える画像処理装置であって、上記輝度データと色差データを輝度データと色相データとクロマデータの3属性データに変換する変換手段と、上記変換手段により得られた輝度データから肌色領域における垂直方向の輝度変化を検出して上記垂直方向の輝度変化の水平方向の各位置ごとの累積分布及び垂直方向の各位置ごとの累積分布を生成する垂直輝度変化検出手段と、上記変換手段により得られた3属性データから肌色画素を抽出する肌色画素抽出手段と、上記肌色画素抽出手段により抽出された肌色画素の空間的な肌色画素分布を生成する肌色画素分布生成手段と、上記肌色画素分布生成手段により生成された肌色画素分布と、上記垂直輝度変化検出手段により生成された垂直方向の輝度変化の水平方向の各位置ごとの累積分布及び垂直方向の各位置ごとの累積分布とから人物画像の顔領域を判定する顔領域判定手段とを備える上記肌領域検出手段と、上記入力された人物画像データの輝度データに輪郭強調処理を行う輪郭強調手段と、上記入力された人物画像データの色差データに上記輪郭強調処理に要する時間に対応した所定の遅延量を与え、上記輪郭強調手段により輪郭強調処理が施された輝度データと同期した色差データを出力する遅延手段とを備え、上記肌領域検出手段により検出された肌領域情報に基づいて上記輪郭強調手段を制御することを特徴とする。 In order to solve the above-described problems, the present invention converts input human image data into digitized luminance data and color difference data, and detects a skin area from the digitized luminance data and color difference data. An image processing apparatus comprising: means for converting the luminance data and color difference data into three attribute data of luminance data, hue data, and chroma data; and a vertical in a skin color region from the luminance data obtained by the converting means. A vertical luminance change detecting means for detecting a luminance change in a direction and generating a cumulative distribution for each position in the horizontal direction and a cumulative distribution for each position in the vertical direction by detecting the luminance change in the vertical direction, and obtained by the converting means. A flesh color pixel extracting means for extracting flesh color pixels from the three attribute data, and a spatial flesh color pixel distribution of the flesh color pixels extracted by the flesh color pixel extracting means. A flesh color pixel distribution generating unit, a flesh color pixel distribution generated by the flesh color pixel distribution generating unit, a cumulative distribution for each position in the horizontal direction of a vertical luminance change generated by the vertical luminance change detecting unit, and The skin area detecting means comprising a face area determining means for determining a face area of a person image from the cumulative distribution at each position in the vertical direction, and an outline for performing edge enhancement processing on the luminance data of the input person image data A color difference synchronized with luminance data that has been given a predetermined delay amount corresponding to the time required for the contour emphasizing process to the emphasizing means and the color difference data of the input human image data, Delay means for outputting data, and controlling the contour enhancement means based on the skin area information detected by the skin area detection means.

本発明に係る画像処理装置は、さらに、上記輝度データと色差データに変換された人物画像データを記憶し、上記肌領域検出手段で肌領域情報を検出するのに要する時間に対応した所定の遅延量を与えて出力する記憶手段と、上記記憶手段により上記所定の遅延量を与えられた人物画像データを輝度データと色相データとクロマデータの3属性データに変換する変換手段と、上記変換手段により得られた3属性データから肌色データを検出する検出手段とを備え、上記遅延手段は、上記記憶手段により上記所定の遅延量を与えられた人物画像データの色差データに上記輪郭強調処理に要する時間に対応した所定の遅延量を与え、上記輪郭強調手段は、上記肌領域検出手段により検出された肌領域情報に基いた制御により上記検出手段により検出された検出結果に対応する人物画像データの輝度データに輪郭強調処理を行うことを特徴とする。 The image processing apparatus according to the present invention further stores the human image data converted into the luminance data and the color difference data, and a predetermined delay corresponding to a time required for detecting the skin area information by the skin area detecting means. A storage means for giving an amount and outputting; a conversion means for converting the person image data given the predetermined delay amount by the storage means into three-attribute data of luminance data, hue data and chroma data; and the conversion means Detecting means for detecting skin color data from the three attribute data obtained, and the delay means takes time required for the contour enhancement processing on the color difference data of the person image data given the predetermined delay amount by the storage means. gives a predetermined delay amount corresponding to said contour enhancement means, the control had groups Dzu skin region information detected by the skin area detection unit, to the detection means And performing edge enhancement processing on the luminance data of the person image data corresponding to the detected detection result.

本発明に係る画像処理装置は、さらに、上記入力された人物画像データからシーンの変わり目を検出するシーンチェンジ検出手段と、上記シーンチェンジ検出手段の検出結果に基いて同じシーンが連続した場合のみ上記肌領域検出手段により検出された肌領域情報の空間的な位置を上記肌領域検出手段により前の画像で検出された肌領域情報の空間的な位置により時間的に平滑化する平滑化手段とを備え、上記輪郭強調手段は、上記平滑化手段からの肌領域情報に基いた制御により上記検出手段により検出された検出結果に対応する人物画像データの輝度データに輪郭強調処理を行うことを特徴とする。 The image processing apparatus according to the present invention, furthermore, the scene change detecting means for detecting a scene change from the person image data that has been the input, the scene when the same scene have groups Dzu on the detection result of the change detection means is continuous only Smoothing means for temporally smoothing the spatial position of the skin area information detected by the skin area detection means by the spatial position of the skin area information detected in the previous image by the skin area detection means; comprising a said edge enhancement means that performs edge enhancement processing on the luminance data of the person image data corresponding to the detection result detected by the detection means by controlling who were based Dzu skin region information from said smoothing means Features.

本発明に係る画像処理装置では、肌領域検出手段において、デジタル化された人物画像データを変換手段により輝度データと色差データを輝度データと色相データとクロマデータの3属性データに変換し、上記変換手段により得られた輝度データから垂直輝度変化検出手段により肌色領域における垂直方向の輝度変化を検出して上記垂直方向の輝度変化の水平方向の各位置ごとの累積分布及び垂直方向の各位置ごとの累積分布を生成するとともに、上記変換手段により得られた3属性データから肌色画素抽出手段により肌色画素を抽出し、上記肌色画素抽出手段により抽出された肌色画素の空間的な肌色画素分布を生成する肌色画素分布生成手段により生成された肌色画素分布と、上記垂直輝度変化検出手段により生成された垂直方向の輝度変化の水平方向の各位置ごとの累積分布及び垂直方向の各位置ごとの累積分布とから、顔領域判定手段により人物画像の顔領域を判定することにより、人物の肌色領域の解析、及び、人物の顔領域の検出をより正確に行い、しかも、入力された人物画像データをデジタル化した輝度データと色差データに変換し、デジタル化された輝度データと色差データから肌領域を検出する肌領域検出手段により検出された肌領域情報に基づいて、輪郭強調手段を制御して、人物画像データの輝度データに輪郭強調処理を行う。また、遅延手段により、上記入力された人物画像データの色差データに上記輪郭強調処理に要する時間に対応した所定の遅延量を与え、上記輪郭強調手段により輪郭強調処理が施された輝度データと同期した色差データを出力することにより、人物の顔領域を輪郭強調することなく他の領域を輪郭強調することにより、画像の鮮鋭度を向上させることができる。 In the image processing apparatus according to the present invention, the skin area detection means converts the digitized human image data into luminance data, color difference data, and three attribute data of luminance data, hue data, and chroma data by the conversion means , and performs the above conversion. From the luminance data obtained by the means, the vertical luminance change detecting means detects the vertical luminance change in the skin color region, and the cumulative distribution of the vertical luminance changes for each position in the horizontal direction and the vertical direction for each position. A cumulative distribution is generated, and a skin color pixel is extracted by the skin color pixel extraction unit from the three attribute data obtained by the conversion unit, and a spatial skin color pixel distribution of the skin color pixel extracted by the skin color pixel extraction unit is generated. The flesh color pixel distribution generated by the flesh color pixel distribution generating unit and the vertical luminance generated by the vertical luminance change detecting unit. The human skin color area is analyzed by determining the face area of the person image by the face area determining means from the cumulative distribution at each position in the horizontal direction and the cumulative distribution at each position in the vertical direction. Skin area detection that detects human face area more accurately, converts input human image data into digitized luminance data and color difference data, and detects skin area from digitized luminance data and color difference data Based on the skin region information detected by the means, the contour emphasizing means is controlled to perform the contour emphasizing process on the luminance data of the person image data. Further, the delay unit gives a predetermined delay amount corresponding to the time required for the contour enhancement process to the color difference data of the input human image data, and synchronizes with the luminance data subjected to the contour enhancement process by the contour enhancement unit. By outputting the color difference data, it is possible to enhance the sharpness of the image by enhancing the outline of other areas without enhancing the outline of the face area of the person.

また、本発明に係る画像処理装置では、さらに、上記輝度データと色差データに変換された人物画像データを記憶手段に記憶し、上記肌領域検出手段で肌領域情報を検出するのに要する時間に対応した所定の遅延量を与える。上記記憶手段により上記所定の遅延量を与えられた人物画像データを変換手段により輝度データと色相データとクロマデータの3属性データに変換し、3属性データから検出手段により肌色データを検出する。そして、上記遅延手段は、上記記憶手段により上記所定の遅延量を与えられた人物画像データの色差データに上記輪郭強調処理に要する時間に対応した所定の遅延量を与え、上記輪郭強調手段は、上記肌領域検出手段により検出された肌領域情報に基いた制御により上記検出手段により検出された検出結果に対応する人物画像データの輝度データに輪郭強調処理を行う。これにより、画像の鮮鋭度をさらに向上させることができる。 Further, in the image processing apparatus according to the present invention, the human image data converted into the luminance data and the color difference data is stored in a storage unit, and the time required for detecting the skin region information by the skin region detection unit. The corresponding predetermined delay amount is given. The person image data given the predetermined delay amount by the storage means is converted into three attribute data of luminance data, hue data and chroma data by the converting means, and the skin color data is detected by the detecting means from the three attribute data. The delay means gives a predetermined delay amount corresponding to the time required for the contour emphasizing process to the color difference data of the person image data given the predetermined delay amount by the storage means. the control had groups Dzu the detected skin region information by the skin area detection unit performs edge enhancement processing on the luminance data of the person image data corresponding to the detection result detected by the detection means. Thereby, the sharpness of the image can be further improved.

さらに、本発明に係る画像処理装置では、上記入力された人物画像データからシーンの変わり目を検出するシーンチェンジ検出手段の検出結果に基いて、平滑化手段により、同じシーンが連続した場合のみ上記肌領域検出手段により検出された肌領域情報の空間的な位置を上記肌領域検出手段により前の画像で検出された肌領域情報の空間的な位置により時間的に平滑化する。そして、上記輪郭強調手段は、上記平滑化手段からの肌領域情報に基いた制御により上記検出手段により検出された検出結果に対応する人物画像データの輝度データに輪郭強調処理を行う。これにより、同一シーンにおける肌領域の時間的変動を緩和することができるため、画像の鮮鋭度をさらに向上させることができる。 Further, in the image processing apparatus according to the present invention, the detection result of the scene change detection means for detecting a scene change from the person image data the input to be had based Dzu, by smoothing means, if the same scene is continuous only the The spatial position of the skin area information detected by the skin area detection means is temporally smoothed by the spatial position of the skin area information detected in the previous image by the skin area detection means . Then, the edge enhancement means performs edge enhancement processing on the luminance data of the person image data corresponding to the detection result detected by the detection means to the skin region information by control had groups Dzu from said smoothing means. As a result, the temporal variation of the skin area in the same scene can be reduced, so that the sharpness of the image can be further improved.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

まず、本発明の第1の実施例に係る画像処理装置について説明する。   First, an image processing apparatus according to the first embodiment of the present invention will be described.

例えば、上記画像処理装置は、入力された画像データから人物の肌の領域(以下、肌領域と言う。)を検出する肌領域検出部1を備えており、上記肌領域検出部1は、図1に示すように、入力された画像データを色の3属性データに変換する座標変換器11と、上記座標変換器11により得られた3属性データから肌色画素の空間的な肌色画素分布をメモリ13上に生成するヒストグラム生成器12と、上記メモリ13と、上記メモリ13上に生成された肌色画素分布から人物の顔の領域(以下、顔領域と言う。)を判定する顔領域判定器14とを備えている。   For example, the image processing apparatus includes a skin region detection unit 1 that detects a human skin region (hereinafter referred to as a skin region) from input image data. As shown in FIG. 1, a coordinate converter 11 that converts input image data into color three-attribute data, and a spatial skin-color pixel distribution of skin-color pixels from the three-attribute data obtained by the coordinate converter 11 are stored in a memory. 13, a histogram generator 12 generated on the memory 13, the memory 13, and a face area determiner 14 that determines a human face area (hereinafter referred to as a face area) from the skin color pixel distribution generated on the memory 13. And.

まず、図2に示すように、画像Pを水平方向に走査して得られたアナログの輝度信号Yと色差信号U,Vが、アナログ/デジタル変換器(以下、A/D変換器と言う。)101によりデジタル変換され、デジタル変換された輝度信号Yと色差信号U,Vが顔領域検出部1に入力される。 First, as shown in FIG. 2, an analog luminance signal Y a and color difference signals U a and V a obtained by scanning the image P in the horizontal direction are converted into an analog / digital converter (hereinafter referred to as an A / D converter). referred to.) by 101 digitally converted, digitally converted luminance signal Y d and the color difference signals U d, V d is input to the face region detector 1.

以下、上記顔領域検出部1について具体的に説明する。   Hereinafter, the face area detection unit 1 will be described in detail.

座標変換器11は、上記A/D変換器101によりデジタル変換された輝度信号Yと色差信号U,Vを色の3属性データである輝度データY、色相データH、及び、クロマデータCに変換する。色の3属性データの定義には様々なものが存在するが、例えば、輝度信号Yと色差信号U,Vから数1に示す演算により輝度データY、色相データH、及び、クロマデータCを求める。 The coordinate converter 11 converts the luminance signal Y d and the color difference signals U d and V d digitally converted by the A / D converter 101 into luminance data Y, hue data H, and chroma data, which are three color attribute data. Convert to C. There are various definitions of the three attribute data of color. For example, luminance data Y, hue data H, and chroma data are calculated from the luminance signal Y d and the color difference signals U d and V d by the calculation shown in Formula 1. Find C.

Figure 0004049116
Figure 0004049116

ヒストグラム生成器12は、図3に示すように、画像Pの各水平位置i毎に垂直方向に並ぶ肌色画素の数を累積した水平方向の肌色画素ヒストグラムSHをメモリ13上に生成する。   As shown in FIG. 3, the histogram generator 12 generates on the memory 13 a horizontal skin color pixel histogram SH in which the number of skin color pixels arranged in the vertical direction is accumulated for each horizontal position i of the image P.

即ち、上記座標変換器11で得られた輝度データY、色相データH、及び、クロマデータCに対して、肌色の範囲を定義するために予め設定された輝度定数Ymin,Ymaxと、色相定数Hmin,Hmaxと、クロマ定数Cmin,Cmaxを持って、
min<Y<Ymax
min<H<Hmax
min<C<Cmax
なる肌色の条件を満足するか否かを判定する。例えば、上記輝度データY、色相データH、及び、クロマデータCに対応する画像P上の位置を画素S(i,j)で示すと、上記画素S(i,j)が上記肌色の条件を満たし、肌色であると判定された場合には、メモリ13上にある肌色画素ヒストグラムSHのi番目の値SH[i]に1を加算する(SH[i]=SH[i]+1)。このような処理を各水平位置毎に行うことにより、垂直方向に並ぶ肌色画素の数が累積されて、メモリ13上に肌色画素ヒストグラムSH[i]が生成される。
That is, with respect to the luminance data Y, hue data H, and chroma data C obtained by the coordinate converter 11, luminance constants Y min and Y max set in advance to define the skin color range, and the hue Having constants H min , H max and chroma constants C min , C max ,
Y min <Y <Y max
H min <H <H max
C min <C <C max
It is determined whether or not the following skin color condition is satisfied. For example, when the position on the image P corresponding to the luminance data Y, hue data H, and chroma data C is indicated by a pixel S (i, j), the pixel S (i, j) satisfies the skin color condition. If it is determined that the skin color is satisfied, 1 is added to the i-th value SH [i] of the skin color pixel histogram SH on the memory 13 (SH [i] = SH [i] +1). By performing such processing for each horizontal position, the number of skin color pixels arranged in the vertical direction is accumulated, and a skin color pixel histogram SH [i] is generated on the memory 13.

顔領域判定器14は、上記ヒストグラム生成器12によりメモリ13上に1枚の画像Pの肌色画素ヒストグラムSH[i]が生成された時点で、肌色画素ヒストグラムSH[i]を解析して、上記図3に示した画像Pの人物Mの顔領域Fを検出する。   The face area determination unit 14 analyzes the skin color pixel histogram SH [i] when the skin color pixel histogram SH [i] of one image P is generated on the memory 13 by the histogram generator 12. The face area F of the person M in the image P shown in FIG. 3 is detected.

即ち、図4に示すように、まず、肌色画素ヒストグラムSH[i]で最も度数の大きい水平位置iを検出し、これを最大値imaxとする。 That is, as shown in FIG. 4, first, the horizontal position i having the highest frequency is detected from the skin color pixel histogram SH [i], and this is set as the maximum value i max .

次に、上記最大値imaxを中心に前後両方向に向かって最初に現れる極小点i,iを検出する。 Then, the maximum value i minimum point max first appear towards both the front and rear about the i m, detects a i p.

次に、上記最大値imaxを中心に前後両方向に向かって、上記最大値imax番目の度数SH[imax]のα%の度数に対応する最初の点iα,iαを検出する。ここで、上記“α”は、肌領域の幅を定義するための、0≦α≦1.0を満たす定数である。但し、上記点iαが、i≦iα≦imaxの範囲に存在しなかった場合、或は、上記点iαが、imax≦iα≦iの範囲に存在しなかった場合には、各々、iα=i、iα=iとする。 Then, towards both back and forth about it said maximum value i max, the maximum value i max th frequency SH [i max] first point i.alpha m corresponding to alpha% of the frequency of detecting the i.alpha p. Here, “α” is a constant satisfying 0 ≦ α ≦ 1.0 for defining the width of the skin region. However, when the point iα m does not exist in the range of i m ≦ iα m ≦ i max , or when the point iα p does not exist in the range of i max ≦ iα p ≦ i p Respectively, iα m = i m and iα p = i p .

このようにして検出された極小点i,i、及び、点iα,iαが、縦横の長さの比の下限のしきい値Tasp1と、上限のしきい値Tasp2、及び、画素数の下限のしきい値Tnumを持って、数2に示す顔領域の条件式を満たすか否かを判定する。 In this way, the detected minimum point i m, i p, and the point i.alpha m, i.alpha p is the threshold T asp1 the lower limit of the ratio of the length of the vertical and horizontal, upper threshold T asp2 and, It is determined whether or not the facial area conditional expression shown in Expression 2 is satisfied with the lower threshold value Tnum of the number of pixels.

Figure 0004049116
Figure 0004049116

上記数2に示した条件式を満たした場合には、極小点i,iに挟まれた領域Smpを顔領域Fと見なし、極小点i,iを顔領域の情報として出力する。或は、上記数2に示した条件式を満たさなかった場合には、SH[k]=0(im<k<ip)として、上述した解析処理を繰り返す。 If it meets the indicated condition with the number 2 considers minimum point i m, the area S mp sandwiched i p and the face region F, the output minimum point i m, a i p as the information of the face area To do. Alternatively, when the conditional expression shown in the above equation 2 is not satisfied, SH [k] = 0 (im <k <ip) is repeated and the above-described analysis processing is repeated.

尚、定数α、各しきい値Tasp1,Tasp2,Tnumは、予め設定されているものとする。 Note that the constant α and the threshold values T asp1 , T asp2 , and T num are set in advance.

上述のような構成をした肌領域検出部1の動作を説明する。   The operation of the skin area detection unit 1 configured as described above will be described.

A/D変換器101によりデジタル変換された画像Pの輝度信号Yと色差信号U,Vは、座標変換器11に入力される。 The luminance signal Y d and the color difference signals U d and V d of the image P digitally converted by the A / D converter 101 are input to the coordinate converter 11.

上記座標変換器11は、入力された輝度信号Yと色差信号U,Vを輝度データY、色相データH、及び、クロマデータCに変換し、変換した輝度データY、色相データH、及び、クロマデータCをヒストグラム生成器12に供給する。 The coordinate converter 11 converts the input luminance signal Y d and color difference signals U d and V d into luminance data Y, hue data H, and chroma data C, and converts the converted luminance data Y, hue data H, The chroma data C is supplied to the histogram generator 12.

上記ヒストグラム生成器12は、上記座標変換器11からの輝度データY、色相データH、及び、クロマデータCが肌色の条件を満足するか否かを判定することによりメモリ13上に肌色画素ヒストグラムSH[i]を生成する。   The histogram generator 12 determines whether or not the luminance data Y, hue data H, and chroma data C from the coordinate converter 11 satisfy the skin color condition, and stores the skin color pixel histogram SH on the memory 13. [I] is generated.

顔領域判定器14は、上記ヒストグラム生成器12によりメモリ13上に生成された画像1枚分の肌色画素ヒストグラムSH[i]から肌色画素が密集する領域を肌領域として検出し、検出した肌領域の大きさ、縦横の長さの比に基づいて顔領域か否かを判定する。そして、判定の結果が顔領域であった場合には、顔領域の情報i,iを出力する。 The face area determination unit 14 detects an area where skin color pixels are dense from the skin color pixel histogram SH [i] for one image generated on the memory 13 by the histogram generator 12, and detects the detected skin area. It is determined whether it is a face area based on the ratio of the size of the face and the length and width. If the determination result is a face area, the face area information i m and ip is output.

上述のように、本実施例では、水平方向の肌色画素ヒストグラムSH[i]を生成し、上記肌色画素ヒストグラムSH[i]に基づいて肌色画素が密集する領域を肌領域として検出し、検出した肌領域の大きさ、縦横の長さの比に基づいて顔領域の判定を行っているため、人物の肌領域の解析、及び、人物の顔領域の検出を高速に且つ正確に行うことができる。   As described above, in this embodiment, the skin color pixel histogram SH [i] in the horizontal direction is generated, and an area where skin color pixels are concentrated is detected as a skin area based on the skin color pixel histogram SH [i]. Since the face area is determined based on the ratio of the size of the skin area and the length and width, the analysis of the human skin area and the detection of the human face area can be performed quickly and accurately. .

次に、本発明の第2の実施例に係る画像処理装置について説明する。   Next, an image processing apparatus according to a second embodiment of the present invention will be described.

上記画像処理装置は、上述した第1の実施例に係る画像処理装置の肌領域検出部1と同じ構成の肌領域検出部1を備えているが、本実施例における肌領域検出部1のヒストグラム生成器12は、図5に示すように、水平方向の肌色画素ヒストグラムSH[i]と垂直方向の肌色画素ヒストグラムSV[j]とをメモリ13上に生成する。   The image processing apparatus includes the skin region detection unit 1 having the same configuration as the skin region detection unit 1 of the image processing device according to the first embodiment described above, but the histogram of the skin region detection unit 1 in the present embodiment. As shown in FIG. 5, the generator 12 generates a skin color pixel histogram SH [i] in the horizontal direction and a skin color pixel histogram SV [j] in the vertical direction on the memory 13.

即ち、画像P上の位置S(i,j)が肌色であると判定された場合には、メモリ13上にある水平方向の肌色画素ヒストグラムSHのi番目の値SH[i]に1を加算する(SH[i]=SH[i]+1)と共に、垂直方向の肌色画素ヒストグラムSVのj番目の値SV[j]に1を加算する(SV[j]=SV[j]+1)。   That is, when it is determined that the position S (i, j) on the image P is a skin color, 1 is added to the i-th value SH [i] of the horizontal skin color pixel histogram SH on the memory 13. (SH [i] = SH [i] +1) and 1 is added to the jth value SV [j] of the skin color pixel histogram SV in the vertical direction (SV [j] = SV [j] +1).

このようにして、メモリ13上に水平方向の肌色画素ヒストグラムSH[i]と垂直方向の肌色画素ヒストグラムSV[j]が生成され、顔領域判定器14は、上記水平方向の肌色画素ヒストグラムSH[i]と垂直方向の肌色画素ヒストグラムSV[j]に基づいて、上述した第1の実施例と同様にして解析を行い、各方向における顔領域の情報i,i、及び、j,jを出力する。 In this way, the horizontal flesh color pixel histogram SH [i] and the vertical flesh color pixel histogram SV [j] are generated on the memory 13, and the face area determination unit 14 uses the horizontal flesh color pixel histogram SH [ i] and the skin color pixel histogram SV [j] in the vertical direction, analysis is performed in the same manner as in the first embodiment described above, and face area information i m , i p , and j m , j p is output.

上述のように、本実施例では、水平方向の肌色画素ヒストグラムSH[i]の他に垂直方向の肌色画素ヒストグラムSV[j]も生成するため、人物の肌領域の解析、及び、人物の顔領域の検出をより正確に行うことができる。   As described above, in this embodiment, in addition to the horizontal skin color pixel histogram SH [i], the vertical skin color pixel histogram SV [j] is also generated. The region can be detected more accurately.

次に、本発明の第3の実施例に係る画像処理装置について説明する。   Next, an image processing apparatus according to the third embodiment of the present invention will be described.

上記画像処理装置は、図6に示すように、上述した第1、及び、第2の実施例の肌領域検出部1の構成に加えて、肌領域における垂直方向の輝度変化を検出する垂直輝度変化検出器21を有する肌領域検出部2を備えている。   As shown in FIG. 6, the image processing apparatus includes a vertical luminance for detecting a luminance change in the vertical direction in the skin area in addition to the configuration of the skin area detecting unit 1 of the first and second embodiments described above. A skin region detection unit 2 having a change detector 21 is provided.

尚、上記図1に示した画像処理装置と同じ動作を示す箇所には同一の符号を付し、その詳細な説明を省略する。   In addition, the same code | symbol is attached | subjected to the location which shows the same operation | movement as the image processing apparatus shown in the said FIG. 1, and the detailed description is abbreviate | omitted.

即ち、上記垂直輝度変化検出器21は、座標変換器11により変換された輝度データY、色相データH、及び、クロマデータCのうち上記輝度データYの垂直方向の微分値を水平方向の各位置毎に累積した水平方向の微分ヒストグラムDH[i]をメモリ13上に生成する。また、上記輝度データYの垂直方向の微分値を垂直方向の各位置毎に累積した垂直方向の微分ヒストグラムDV[j]もメモリ13上に生成する。   That is, the vertical luminance change detector 21 calculates the differential value in the vertical direction of the luminance data Y among the luminance data Y, hue data H, and chroma data C converted by the coordinate converter 11 in each horizontal position. A horizontal differential histogram DH [i] accumulated every time is generated on the memory 13. In addition, a vertical differential histogram DV [j] obtained by accumulating the vertical differential values of the luminance data Y for each position in the vertical direction is also generated on the memory 13.

例えば、画像上の任意の位置(i,j)における輝度データYの垂直方向の微分値vijは、微分計算の定数dを持って、
ij=|2Y(i,j)−Y(i,j−d)−Y(i,j+d)|
なる演算により求められる。この演算式は、垂直方向の2次微分値の絶対値を表している。
For example, a vertical differential value v ij of luminance data Y at an arbitrary position (i, j) on the image has a constant d j for differential calculation,
v ij = | 2Y (i, j) −Y (i, j−d j ) −Y (i, j + d j ) |
Is obtained by the following calculation. This arithmetic expression represents the absolute value of the secondary differential value in the vertical direction.

従って、メモリ13上にある水平方向の微分ヒストグラムDHのi番目の値DH[i]に微分値vijを加算する(DH[i]=DH[i]+vij)。また、垂直方向の肌色画素ヒストグラムDVのj番目の値DV[j]に微分値vijを加算する(DV[j]=DV[j]+vij)。 Accordingly, the differential value v ij is added to the i-th value DH [i] of the horizontal differential histogram DH on the memory 13 (DH [i] = DH [i] + v ij ). Further, the differential value v ij is added to the j-th value DV [j] of the skin color pixel histogram DV in the vertical direction (DV [j] = DV [j] + v ij ).

このようにして、メモリ13上に水平方向の微分ヒストグラムDH[i]と垂直方向の微分ヒストグラムDV[j]が生成される。   In this way, the horizontal differential histogram DH [i] and the vertical differential histogram DV [j] are generated on the memory 13.

一方、ヒストグラム生成器12は、例えば、上述した第2の実施例と同様にして、水平方向の肌色画素ヒストグラムSH[i]と垂直方向の肌色画素ヒストグラムSV[j]をメモリ13上に生成する。   On the other hand, for example, the histogram generator 12 generates a horizontal skin color pixel histogram SH [i] and a vertical skin color pixel histogram SV [j] on the memory 13 in the same manner as in the second embodiment described above. .

顔領域判定器14は、水平方向の肌色画素ヒストグラムSH[i]と垂直方向の肌色画素ヒストグラムSV[j]を基にして、上記第2の実施例と同様に顔領域の情報i,i、及び、j,jを求める。ここで、上記顔領域判定器14は、さらに、水平方向の微分ヒストグラムDH[i]と垂直方向の微分ヒストグラムDV[j]を基に、数3、或は、数4に示す演算を行う。 The face area determination unit 14 uses face area information i m , i as in the second embodiment based on the horizontal skin color pixel histogram SH [i] and the vertical skin color pixel histogram SV [j]. Find p 1 and j m , j p . Here, the face area determination unit 14 further performs the calculation shown in Formula 3 or Formula 4 based on the differential histogram DH [i] in the horizontal direction and the differential histogram DV [j] in the vertical direction.

Figure 0004049116
Figure 0004049116

Figure 0004049116
Figure 0004049116

上記数3、或は、数4で示した演算により得られた値dが、予め設定されたしきい値Tdev以上であった場合には、検出した顔領域の情報i,i、及び、j,jを出力し、上記値dがしきい値Tdev以下であった場合には、SH[k]=0(i<k<i)として解析処理を繰り返す。 Equation 3 or, the value d obtained by the calculation shown in Equation 4 is the case were predetermined threshold T dev above, information i m of the detected face region, i p, and outputs a j m, j p, if the value d is less than or equal to the threshold value T dev is, SH [k] = 0 and repeats the analysis process as (i m <k <i p ).

上述のような構成をした肌領域検出部2の動作を説明する。   The operation of the skin area detection unit 2 configured as described above will be described.

A/D変換器101によりデジタル変換された画像Pの輝度信号Yと色差信号U,Vは、座標変換器11に入力される。 The luminance signal Y d and the color difference signals U d and V d of the image P digitally converted by the A / D converter 101 are input to the coordinate converter 11.

上記座標変換器11は、入力された輝度信号Yと色差信号U,Vを輝度データY、色相データH、及び、クロマデータCに変換し、変換した輝度データY、色相データH、及び、クロマデータCをヒストグラム生成器12に供給すると共に輝度データYを垂直輝度変化検出器21に供給する。 The coordinate converter 11 converts the input luminance signal Y d and color difference signals U d and V d into luminance data Y, hue data H, and chroma data C, and converts the converted luminance data Y, hue data H, The chroma data C is supplied to the histogram generator 12 and the luminance data Y is supplied to the vertical luminance change detector 21.

上記ヒストグラム生成器12は、上記座標変換器11からの輝度データY、色相データH、及び、クロマデータCが肌色の条件を満足するか否かを判定することによりメモリ13上に水平方向の肌色画素ヒストグラムSH[i]と垂直方向の肌色画素ヒストグラムSV[j]を生成する。   The histogram generator 12 determines whether the luminance data Y, the hue data H, and the chroma data C from the coordinate converter 11 satisfy the skin color condition, thereby causing the horizontal skin color on the memory 13. The pixel histogram SH [i] and the skin color pixel histogram SV [j] in the vertical direction are generated.

一方、上記垂直輝度変化検出器21は、上記座標変換器11からの輝度データYの垂直方向の微分値を水平方向の各位置毎に累積した水平方向の微分ヒストグラムDH[i]と、上記輝度データYの垂直方向の微分値を垂直方向の各位置毎に累積した垂直方向の微分ヒストグラムDV[j]をメモリ13上に生成する。顔領域判定器14は、上記ヒストグラム生成器12によりメモリ13上に生成された肌色画素ヒストグラムSH[i]と肌色画素ヒストグラムSV[j]から肌色画素が密集する領域を肌領域として検出し、検出した肌領域の大きさ、縦横の長さの比に基づいて顔領域か否かを判定する。そして、判定の結果が顔領域であった場合には、上記垂直輝度変化検出器21によりメモリ13上に生成された微分ヒストグラムDH[i]と微分ヒストグラムDV[j]に基づいて、顔領域の情報i,i,j,jを出力する。 On the other hand, the vertical luminance change detector 21 includes a horizontal differential histogram DH [i] obtained by accumulating vertical differential values of the luminance data Y from the coordinate converter 11 for each position in the horizontal direction, and the luminance. A vertical differential histogram DV [j] obtained by accumulating the vertical differential values of the data Y at each position in the vertical direction is generated on the memory 13. The face area determination unit 14 detects, as a skin area, an area where skin color pixels are concentrated from the skin color pixel histogram SH [i] and the skin color pixel histogram SV [j] generated on the memory 13 by the histogram generator 12. Whether or not it is a face region is determined based on the ratio of the size of the skin region and the length and width. If the determination result is a face area, the face area is determined based on the differential histogram DH [i] and the differential histogram DV [j] generated on the memory 13 by the vertical luminance change detector 21. Information i m , i p , j m , and j p are output.

上述のような垂直方向の輝度変化の分布に基づいた顔領域の情報i,iとj,jの検出は、人物の顔には目、口等の水平方向のエッジが含まれていることに基づくものであるが、垂直方向の輝度変化の分布に基づいて顔領域の判定を行うことにより、例えば、壁のような輝度変化の少ない一様な領域の誤検出を回避することができる。従って、人物の肌色領域の解析、及び、人物の顔領域の検出をより正確に行うことができる。 The detection of face area information i m , i p and j m , j p based on the distribution of luminance change in the vertical direction as described above, the human face includes horizontal edges such as eyes and mouth. However, by detecting the face area based on the distribution of the luminance change in the vertical direction, for example, avoiding false detection of a uniform area with a small luminance change such as a wall. Can do. Therefore, the analysis of the person's skin color area and the detection of the person's face area can be performed more accurately.

尚、本実施例では、上記ヒストグラム生成器12は、水平方向の肌色画素ヒストグラムSH[i]と垂直方向の肌色画素ヒストグラムSV[j]をメモリ13上に生成することとしたが、上述した第1の実施例と同様に、水平方向の肌色画素ヒストグラムSH[i]のみをメモリ13上に生成することとしてもよい。   In the present embodiment, the histogram generator 12 generates the skin color pixel histogram SH [i] in the horizontal direction and the skin color pixel histogram SV [j] in the vertical direction on the memory 13. Similarly to the first embodiment, only the skin color pixel histogram SH [i] in the horizontal direction may be generated on the memory 13.

次に、本発明の第4の実施例に係る画像処理装置について説明する。   Next, an image processing apparatus according to a fourth embodiment of the present invention is described.

上記画像処理装置は、図7に示すように、上述した第3の実施例の肌領域検出部2の構成に加えて、輝度データY、色相データH、クロマデータC、及び、垂直方向の輝度変化vijをブロック単位に平均化するブロック内特徴量算出器31を有する肌領域検出部3を備えている。 As shown in FIG. 7, the image processing apparatus includes luminance data Y, hue data H, chroma data C, and luminance in the vertical direction in addition to the configuration of the skin area detection unit 2 of the third embodiment described above. A skin region detection unit 3 having an in-block feature amount calculator 31 that averages the change v ij in units of blocks is provided.

尚、上記図1、及び、上記図6に示した画像処理装置と同じ動作を示す箇所には同一の符号を付し、その詳細な説明を省略する。   In addition, the same code | symbol is attached | subjected to the location which shows the same operation | movement as the image processing apparatus shown in the said FIG. 1 and the said FIG. 6, and the detailed description is abbreviate | omitted.

即ち、上記ブロック内特徴量算出器31は、図8に示すように、座標変換器11により変換された画像Pの輝度データY、色相データH、及び、クロマデータCを、例えば、ブロックBの大きさを表す定数m,mを持って、水平方向の画素数(2m+1)、垂直方向の画素数(2m+1)で示される大きさのブロックBに分割する。従って、各ブロック内の画素数Mは、
M=(2m+1)(2m+1)
で表すことができる。
That is, the intra-block feature quantity calculator 31 converts the luminance data Y, hue data H, and chroma data C of the image P converted by the coordinate converter 11 into, for example, the block B as shown in FIG. The block is divided into blocks B each having a constant number m i and m j representing the size and having a size indicated by the number of pixels in the horizontal direction (2m i +1) and the number of pixels in the vertical direction (2m j +1). Therefore, the number of pixels M in each block is
M = (2m i +1) (2m j +1)
Can be expressed as

そして、画素数Mを持って、数5、数6、数7に示す演算により、各ブロック毎の輝度データYの平均値Yave、色相データHの平均値Have、及び、クロマデータの平均値Caveを求める。 Then, with the number of pixels M, the number 5, 6, the calculation shown in Equation 7, the average value H ave of the average value Y ave, hue data H of the luminance data Y for each block, and the average of the chroma data Find the value C ave .

Figure 0004049116
Figure 0004049116

Figure 0004049116
Figure 0004049116

Figure 0004049116
Figure 0004049116

従って、上述のようにして算出された値Yave、Have、Cave、vibjbmaxが各ブロックの代表値としてヒストグラム生成器12に供給される。上記ストグラム生成器12は、上記図8に示すように、メモリ13上にある水平方向の肌色ブロックヒストグラムSHのi番目のブロックSH[i]に1を加算する(SH[i]=SH[i]+1)と共に、垂直方向の肌色ブロックヒストグラムSVのj番目のブロックSV[j]に1を加算する(SV[j]=SV[j]+1)。このようにして、メモリ13上には、ブロック単位の水平方向の肌色ブロックヒストグラムSV[i]と垂直方向の肌色ブロックヒストグラムSV[j]が生成される。 Therefore, the values Y ave , H ave , C ave , and v ijbmax calculated as described above are supplied to the histogram generator 12 as representative values of each block. The strogram generator 12 adds 1 to the i-th block SH [i b ] of the horizontal flesh color block histogram SH on the memory 13 as shown in FIG. 8 (SH [i b ] = SH Along with [i b ] +1), 1 is added to the j-th block SV [j b ] of the skin color block histogram SV in the vertical direction (SV [j b ] = SV [j b ] +1). In this manner, a horizontal flesh color block histogram SV [i b ] and a vertical flesh color block histogram SV [j b ] are generated on the memory 13.

また、上記ブロック内特徴量算出器31は、垂直輝度変化検出器21により得られた垂直方向の微分値vijに対しては、ブロック内の最大値vibjbmaxを数8に示す演算により求める。 The intra-block feature quantity calculator 31 obtains the maximum value v ijbmax in the block by the calculation shown in Expression 8 for the vertical differential value v ij obtained by the vertical luminance change detector 21.

Figure 0004049116
Figure 0004049116

従って、上記最大値vibjbmaxも各ブロックの代表値としてメモリ13に出力されることとなり、メモリ13上にある水平方向の微分ヒストグラムDHのi番目のブロックDH[i]に微分値vibjbが加算され(DH[i]=DH[i]+vibjb)、また、垂直方向の肌色画素ヒストグラムDVのj番目のブロックDV[j]に微分値vibjbが加算される(DV[j]=DV[j]+vibjb)。このようにして、メモリ13上には、ブロック単位の水平方向の微分ヒストグラムDH[i]と垂直方向の微分ヒストグラムDV[j]も生成される。 Accordingly, the maximum value v ijbmax is also output to the memory 13 as a representative value of each block, and the differential value v ibjb is stored in the i-th block DH [i b ] of the horizontal differential histogram DH on the memory 13. Addition is made (DH [i b ] = DH [i b ] + v ibjb ), and the differential value v ibjb is added to the j th block DV [j b ] of the skin color pixel histogram DV in the vertical direction (DV [j b ] = DV [j b ] + v ibjb ). In this way, the horizontal differential histogram DH [i b ] and the vertical differential histogram DV [j b ] in units of blocks are also generated on the memory 13.

顔領域判定器14は、メモリ13上に生成されたブロック単位の肌色ブロックヒストグラムSV[i]、肌色ブロックヒストグラムSV[j]、微分ヒストグラムDH[i]、及び、微分ヒストグラムDV[j]を、上述した第2の実施例と同様にして、肌色ブロックを検出し、検出した肌色ブロックの大きさ、縦横の長さの比に基づいて顔領域であるか否かを判定する。そして、顔領域と判定された肌色ブロックのブロック番号ibm,ibp,jbm,jbpの中心位置i,i,j,j
=ibm(2m+1)+m
=ibp(2m+1)+m
=jbm(2m+1)+m
=jbp(2m+1)+m
なる演算で求め、求めた中心位置i,i,j,jを顔領域の境界を示す座標とし、顔領域の情報として出力する。
The face area determination unit 14 includes a flesh color block histogram SV [i b ], a flesh color block histogram SV [j b ], a differential histogram DH [i b ], and a differential histogram DV [j generated on the memory 13. b ] is detected in the same manner as in the second embodiment described above, and a skin color block is detected, and it is determined whether or not it is a face region based on the ratio of the detected skin color block size and vertical and horizontal lengths. Then, the block number i bm skin color blocks determined as the face region, i bp, j bm, the center position of the j bp i m, i p, j m, the j p i m = i bm ( 2m i +1) + m i
i p = i bp (2m i +1) + m i
j m = j bm (2m j +1) + m j
j p = j bp (2m j +1) + m j
The obtained center positions i m , i p , j m , and j p are used as coordinates indicating the boundary of the face area, and are output as face area information.

上述のような構成をした肌領域検出部3の動作を説明する。   The operation of the skin area detection unit 3 configured as described above will be described.

A/D変換器101によりデジタル変換された画像Pの輝度信号Yと色差信号U,Vは、座標変換器11に入力される。 The luminance signal Y d and the color difference signals U d and V d of the image P digitally converted by the A / D converter 101 are input to the coordinate converter 11.

上記座標変換器11は、入力された輝度信号Yと色差信号U,Vを輝度データY、色相データH、及び、クロマデータCに変換し、変換した輝度データY、色相データH、及び、クロマデータCをブロック内特徴量算出器31に供給すると共に輝度データYを垂直輝度変化検出器21に供給する。 The coordinate converter 11 converts the input luminance signal Y d and color difference signals U d and V d into luminance data Y, hue data H, and chroma data C, and converts the converted luminance data Y, hue data H, The chroma data C is supplied to the in-block feature quantity calculator 31 and the luminance data Y is supplied to the vertical luminance change detector 21.

上記垂直輝度変化検出器21は、上記座標変換器11からの輝度データYの垂直方向の微分値vijを求め、求めた微分値vijを上記ブロック内特徴量算出器31に供給する。 The vertical luminance change detector 21 calculates a differential value v ij in the vertical direction of the luminance data Y from the coordinate converter 11 and supplies the calculated differential value v ij to the in-block feature value calculator 31.

上記ブロック内特徴量算出器31は、上記座標変換器11からの輝度データY、色相データH、及び、クロマデータCをブロックに分割し、各ブロック毎の輝度データYの平均値Yave、色相データHの平均値Have、及び、クロマデータの平均値Caveを求め、求めた色相データHの平均値Have、及び、クロマデータの平均値Caveをヒストグラム生成器12に供給する。 The intra-block feature quantity calculator 31 divides the luminance data Y, hue data H, and chroma data C from the coordinate converter 11 into blocks, and the average value Y ave of the luminance data Y for each block, the hue The average value H ave of the data H and the average value C ave of the chroma data are obtained, and the obtained average value H ave of the hue data H and the average value C ave of the chroma data H are supplied to the histogram generator 12.

上記ヒストグラム生成器12は、上記座標変換器11からの輝度データY、色相データH、及び、クロマデータCの平均値Yave,Have,Caveが肌色の条件を満足するか否かを判定することによりメモリ13上に水平方向の肌色ブロックヒストグラムSH[i]と垂直方向の肌色ブロックヒストグラムSV[j]を生成する。 The histogram generator 12 determines whether the average values Y ave , H ave , and C ave of the luminance data Y, hue data H, and chroma data C from the coordinate converter 11 satisfy the skin color condition. As a result, the skin color block histogram SH [i] in the horizontal direction and the skin color block histogram SV [j] in the vertical direction are generated on the memory 13.

また、上記ブロック内特徴量算出器31は、上記垂直輝度変化検出器21からの微分値vijに対しては、ブロック内の最大値vibjbmaxを求め、求めたブロック内の最大値vibjbmaxをメモリ13に出力する。これにより、メモリ13上には、ブロック単位の水平方向の微分ヒストグラムDH[i]と垂直方向の微分ヒストグラムDV[j]も生成される。 The intra-block feature quantity calculator 31 obtains the maximum value v ibjbmax in the block for the differential value v ij from the vertical luminance change detector 21, and the obtained maximum value v ibjbmax in the block is obtained. Output to the memory 13. As a result, a horizontal differential histogram DH [i b ] and a vertical differential histogram DV [j b ] in units of blocks are also generated on the memory 13.

顔領域判定器14は、メモリ13上に生成されたブロック単位の肌色ブロックヒストグラムSH[i]と肌色ブロックヒストグラムSV[j]から肌色が密集する領域を肌領域として検出し、検出した肌領域の大きさ、縦横の長さの比に基づいて顔領域か否かを判定する。そして、判定の結果が顔領域であった場合には、メモリ13上に生成されたブロック単位の微分ヒストグラムDH[i]と微分ヒストグラムDV[j]に基づいて、顔領域の情報i,i,j,jを出力する。 The face area determination unit 14 detects, as a skin area, an area where skin colors are dense from the skin color block histogram SH [i b ] and the skin color block histogram SV [j b ] generated on the memory 13 in units of blocks. Whether or not it is a face area is determined based on the ratio of the size of the area and the length and width. If the determination result is a face area, the face area information i m is generated based on the differential histogram DH [i b ] and the differential histogram DV [j b ] in block units generated on the memory 13. , I p , j m , j p are output.

上述のように、本実施例では、画像をブロックに分割し、ブロック内の平均色の分布に基づいて肌色ブロックを検出し、検出した肌色ブロックの大きさ、縦横の長さの比に基づいて顔領域を検出しているため、人物の肌色領域の解析、及び、人物の顔領域の検出を高速に且つ正確に行うことができる。   As described above, in this embodiment, the image is divided into blocks, the skin color block is detected based on the average color distribution in the block, and the size of the detected skin color block and the ratio of the vertical and horizontal lengths are determined. Since the face area is detected, analysis of the person's skin color area and detection of the person's face area can be performed quickly and accurately.

尚、本実施例では、上記ヒストグラム生成器12は、水平方向の肌色ブロックヒストグラムSH[i]と垂直方向の肌色ブロックヒストグラムSV[j]をメモリ13上に生成することとしたが、水平方向の肌色ブロックヒストグラムSH[i]のみをメモリ13上に生成することとしてもよい。 In the present embodiment, the histogram generator 12 generates the skin color block histogram SH [i b ] in the horizontal direction and the skin color block histogram SV [j b ] in the vertical direction on the memory 13. Only the flesh color block histogram SH [i b ] in the direction may be generated on the memory 13.

また、本実施例では、垂直輝度変化検出器21を設けることとしたが、上記垂直輝度変化検出器21を設けずに、例えば、上記図1に示した肌領域検出部1の構成において、座標変換器11の後段にブロック内特徴量算出器31を備えることとしてもよい。この場合、水平方向の肌色ブロックヒストグラムSH[i]と垂直方向の肌色ブロックヒストグラムSV[j]、或は、水平方向の肌色ブロックヒストグラムSH[i]のみから顔領域を検出することとなる。 In the present embodiment, the vertical luminance change detector 21 is provided. However, for example, in the configuration of the skin region detection unit 1 shown in FIG. An in-block feature quantity calculator 31 may be provided after the converter 11. In this case, a face area is detected only from the horizontal flesh color block histogram SH [i b ] and the vertical flesh color block histogram SV [j b ], or from the horizontal flesh color block histogram SH [i b ]. Become.

次に、本発明の第5の実施例に係る画像処理装置について説明する。   Next, an image processing apparatus according to a fifth embodiment of the present invention is described.

上記画像処理装置は、上述した第3の実施例に係る画像処理装置の肌領域検出部2を適用したものであり、例えば、図9に示すように、上記図6に示した肌領域検出部2と、上記肌領域検出部2により得られた顔領域の情報に基づいた制御により輪郭強調処理を行う輪郭強調器4と、上記輪郭強調器4から出力されるデータと入力データとの同期をとるための遅延器5と、A/D変換器101と、デジタル/アナログ変換器(以下、D/A変換器と言う。)102とを備えている。   The image processing apparatus applies the skin area detection unit 2 of the image processing apparatus according to the third embodiment described above. For example, as shown in FIG. 9, the skin area detection unit shown in FIG. 2, a contour enhancer 4 that performs a contour enhancement process by control based on information on the face region obtained by the skin region detection unit 2, and synchronizes data output from the contour enhancer 4 and input data. A delay unit 5 for taking the signal, an A / D converter 101, and a digital / analog converter (hereinafter referred to as a D / A converter) 102 are provided.

尚、上記図6に示した肌領域検出部2と同じ動作を示す箇所には同一の符号を付し、その詳細な説明を省略する。   In addition, the same code | symbol is attached | subjected to the location which shows the same operation | movement as the skin region detection part 2 shown in the said FIG. 6, and the detailed description is abbreviate | omitted.

上記肌領域検出部2には、A/D変換器101によりデジタル変換された輝度信号Yと色差信号U,Vが入力され、上記肌領域検出部2は、上述したように、入力された輝度信号Yと色差信号U,Vから顔領域を検出する。そして、検出した顔領域の情報i,i,j,j、即ち、顔領域の境界の座標を示す4つの座標を輪郭強調器4に供給する。 The skin area detection unit 2 receives the luminance signal Y d and the color difference signals U d and V d digitally converted by the A / D converter 101, and the skin area detection unit 2 receives the input as described above. luminance signal Y d and the color difference signals U d, detects a face area from V d. The detected face area information i m , i p , j m , and j p , that is, four coordinates indicating the coordinates of the boundary of the face area are supplied to the contour enhancer 4.

ここで、上記肌領域検出部2において、入力された輝度信号Yと色差信号U,Vに対応する画素が肌色であると判定された場合、上記肌領域検出部2のヒストグラム生成器12は、肌色を検出したか否かを示す肌色検出信号cntlを輪郭強調器4に供給する。 Here, when the skin region detection unit 2 determines that the pixel corresponding to the input luminance signal Y d and the color difference signals U d and V d is a skin color, the histogram generator of the skin region detection unit 2 12 supplies the contour enhancer 4 with a skin color detection signal cntl 1 indicating whether or not a skin color has been detected.

また、上記輪郭強調器4には、A/D変換器101によりデジタル変換された輝度信号Yが入力される。上記輪郭強調器4は、入力された輝度信号Yに輪郭強調処理を施し、輪郭強調処理を施した輝度信号YddをD/A変換器102に供給する。 The aforementioned contour enhancement circuit 4, the luminance signal Y d which is digitally converted by the A / D converter 101 is inputted. The contour enhancer 4 performs contour enhancement processing on the input luminance signal Y d and supplies the luminance signal Y dd subjected to contour enhancement processing to the D / A converter 102.

この時、肌領域検出部2から顔領域の情報i,i,j,jが供給されると共に肌色検出信号cntlが供給され、且つ、入力された輝度信号Yに対応する画素が上記顔領域の情報i,i,j,jで示される領域内に存在した場合、上記輪郭強調器4は、上記輝度信号Yに輪郭強調処理を施す際に、その強調の度合を小さくする。 At this time, face area information i m , i p , j m , and j p are supplied from the skin area detection unit 2, and a skin color detection signal cntl 1 is supplied, and corresponds to the input luminance signal Y d . When the pixel is present in the area indicated by the information i m , i p , j m , and j p of the face area, the edge enhancer 4 performs the edge enhancement process on the luminance signal Y d. Reduce the degree of emphasis.

具体的に説明すると、まず、輪郭強調器4に肌領域検出部2から供給される顔領域の情報i,i,j,jは、現在入力中の画像よりも時間的に画像1枚分過去の画像から得られたものである。これに対して、輪郭強調器4に肌領域検出部2から供給される肌色検出信号cntlは、現在入力中の画像の各画素の色に関する情報である。即ち、上記輪郭強調器4は、過去の画像から得られた顔領域の情報と、現在入力中の画像の画素単位の色情報により強調の程度を調整するものである。 Specifically, first, information i m of the face region supplied from the skin area detection section 2 to the edge enhancement unit 4, i p, j m, j p , rather than an image temporally image currently being input It is obtained from one past image. On the other hand, the skin color detection signal cntl 1 supplied from the skin region detection unit 2 to the contour enhancer 4 is information relating to the color of each pixel of the currently input image. In other words, the contour enhancer 4 adjusts the degree of enhancement based on face area information obtained from past images and color information in units of pixels of the currently input image.

例えば、上記輪郭強調器4は、図10に示すように、係数算出器41と、係数平滑化器42と、強調信号生成器43と、加算器45とを備えており、原信号に2次微分を加算する従来の輪郭強調器を適用したものである。   For example, the contour enhancer 4 includes a coefficient calculator 41, a coefficient smoother 42, an enhancement signal generator 43, and an adder 45, as shown in FIG. A conventional contour enhancer for adding the differential is applied.

上記係数算出器41には、上記肌領域検出部2からの顔領域の情報i,i,j,jと肌色検出信号cntlが供給される。上記係数算出器41は、これらの情報から画像上の位置(i,j)に対応する係数cijを求める。 The coefficient calculator 41 is supplied with the face area information i m , i p , j m , j p and the skin color detection signal cntl 1 from the skin area detection unit 2. The coefficient calculator 41 obtains a coefficient c ij corresponding to the position (i, j) on the image from these pieces of information.

即ち、現在の処理対象となっている画像上での位置(i,j)が顔領域に含まれている場合(i<i<i、j<j<j)には「1」を、顔領域に含まれていない場合には「0」を出力値とする関数f(i,j)と、肌色検出信号cntlが現在の画素が肌色であることを示している場合(cntl=1)には「1」、肌色でないことを示している場合(cntl=0)には「0」を出力値とする関数f(cntl)を持って、顔領域の情報i,i,j,j、及び、肌色検出信号cntlから画像上の位置(i,j)に対応する係数cijを、
ij=1−f(i,j)f(cntl
なる演算により求める。
That is, when the position (i, j) on the image that is the current processing target is included in the face area (i m <i <i p , j m <j <j p ), “1 "Is not included in the face area, the function f 0 (i, j) whose output value is" 0 "and the skin color detection signal cntl 1 indicate that the current pixel is skin color (Cntl 1 = 1) has a function f 1 (cntl 1 ) whose output value is “1”, and when it indicates that it is not a skin color (cntl 1 = 0), the facial region A coefficient c ij corresponding to the position (i, j) on the image from the information i m , i p , j m , j p and the skin color detection signal cntl 1 ,
c ij = 1−f 0 (i, j) f 1 (cntl 1 )
Is obtained by the following calculation.

従って、係数cijは、現在の処理対象となっている画像上での位置(i,j)が顔領域に含まれ、且つ、その色が肌色である場合のみ「0」となり、それ以外の場合は「1」となる。 Accordingly, the coefficient c ij is “0” only when the position (i, j) on the current processing target image is included in the face area and the color is skin color, In this case, “1” is set.

このようにして求められた係数cijは、係数平滑化器42に供給される。上記係数平滑化器42は、関数f(i,j)と関数f(cntl)の不連続性を緩和するために、係数cijの近傍における平均値cdijを求める。 The coefficient c ij obtained in this way is supplied to the coefficient smoother 42. The coefficient smoother 42, in order to alleviate the discontinuity of the function f 0 (i, j) and the function f 1 (cntl 1), the average value c dij in the vicinity of the coefficients c ij.

即ち、近傍系内の画素数Nは、平均値cdijを求める近傍系の大きさを表す定数n,nと、近傍系を構成する水平方向の画素数(2n+1)、及び、垂直方向の画素数(2n+1)を持って、
N=(2n+1)(2n+1)
と表せる。
That is, the number N of pixels in the neighborhood system includes constants n i and n j representing the size of the neighborhood system for obtaining the average value c dij , the number of pixels in the horizontal direction (2n i +1) constituting the neighborhood system, and With the number of pixels in the vertical direction (2n j +1)
N = (2n i +1) (2n j +1)
It can be expressed.

従って、上記係数平滑化器42は、係数cijの近傍における平均値cdijを、上記近傍系内の画素数Nを持って、数9に示す演算により求める。 Therefore, the coefficient smoother 42 obtains the average value c dij in the vicinity of the coefficient c ij by the calculation shown in Expression 9 with the number N of pixels in the vicinity system.

Figure 0004049116
Figure 0004049116

そして、上記係数平滑化器42は、求めた係数cijの近傍における平均値cdijを平滑化補正係数cdijとして強調信号生成器43に供給する。 Then, the coefficient smoother 42 supplies the average value c dij in the vicinity of the obtained coefficient c ij to the enhancement signal generator 43 as a smoothing correction coefficient c dij .

上記強調信号生成器43には、上記係数平滑化器42から平滑化補正係数cdijが供給されると共に、A/D変換器101によりデジタル変換された輝度信号Yが供給される。 The enhancement signal generator 43 is supplied with the smoothing correction coefficient c dij from the coefficient smoother 42 and the luminance signal Y d digitally converted by the A / D converter 101.

上記強調信号生成器43は、上記A/D変換器101からの輝度信号Yの2次微分値に上記係数平滑化器42からの平滑化補正係数cdij乗じることにより、強調信号dYを生成する。 The enhancement signal generator 43, by multiplying the luminance signal Y smoothing correction coefficient from the coefficient smoother 42 in the second derivative of the d c dij from the A / D converter 101, generating an enhanced signal dY To do.

即ち、平滑化補正係数cdijに対応する輝度信号Yを輝度信号Y(i,j)で示すと、上記強調信号dYは、定数diを持って、
dY=cdij(2Y(i,j)−Y(i+di,j)
−Y(i−di,j))
なる演算により求められる。この時、入力データの同期をとるために適当な遅延が施される。そして、上記強調信号生成器43は、生成した強調信号dYを加算器45に供給する。
That is, when the luminance signal Y d corresponding to the smoothing correction coefficient c dj is represented by the luminance signal Y d (i, j), the enhancement signal dY has a constant di,
dY = c dij (2Y d (i, j) −Y d (i + di, j)
-Y d (i-di, j))
Is obtained by the following calculation. At this time, an appropriate delay is applied to synchronize the input data. Then, the enhancement signal generator 43 supplies the generated enhancement signal dY to the adder 45.

上記加算器45には、上記強調信号生成器43から強調信号dYが供給されると共に、上記A/D変換器101からの輝度信号Yが供給される。 The aforementioned adder 45, along with enhanced signal dY is supplied from the enhancement signal generator 43, the luminance signal Y d from the A / D converter 101 is supplied.

上記加算器45は、上記強調信号生成器43からの強調信号dYと上記A/D変換器101からの平滑化補正係数cdijに対応する輝度信号Y(i,j)とを加算し、加算結果を輪郭強調処理を施した輝度信号Yddとして出力する。 The adder 45 adds the enhancement signal dY from the enhancement signal generator 43 and the luminance signal Y d (i, j) corresponding to the smoothing correction coefficient c dij from the A / D converter 101, The addition result is output as a luminance signal Y dd that has undergone contour enhancement processing.

即ち、現在の処理対象となっている画像上での位置(i,j)の輝度信号Y(i,j)に輪郭強調処理を施した輝度信号Ydd(i,j)は、
dd(i,j)=Y(i,j)+dY
なる演算により求められる。
That is, the luminance signal Y dd (i, j) obtained by performing the edge enhancement process on the luminance signal Y d (i, j) at the position (i, j) on the current processing target image is
Y dd (i, j) = Y d (i, j) + dY
Is obtained by the following calculation.

上述のように、輪郭強調器4は、肌領域検出部2からの顔領域の情報i,i,j,jと肌色検出信号cntlにより強調の程度を画素毎に制御し、入力された輝度信号Yに輪郭強調処理を施す。そして、輪郭強調処理を施した輝度信号YddをD/A変換器102に供給する。ここで、上述した輪郭強調処理においては、入力データの同期をとるために、適当な遅延が施される。 As described above, the contour enhancer 4 controls the degree of enhancement for each pixel based on the face area information i m , i p , j m , j p from the skin area detection unit 2 and the skin color detection signal cntl 1 , performing edge enhancement processing to the input luminance signal Y d. Then, the luminance signal Y dd subjected to the contour enhancement process is supplied to the D / A converter 102. Here, in the above-described edge enhancement processing, an appropriate delay is applied in order to synchronize input data.

一方、遅延器5には、A/D変換器101によりデジタル変換された色差信号U,Vが入力される。上記遅延器5は、入力された色差信号U,Vを遅延して、上記輪郭強調器4により輪郭強調処理が施された輝度信号Yddとの同期をとる。上記遅延器5により遅延された色差信号U,Vは、D/A変換器102に供給される。 On the other hand, the color difference signals U d and V d digitally converted by the A / D converter 101 are input to the delay unit 5. The delay unit 5 delays the input color difference signals U d and V d and synchronizes with the luminance signal Y dd subjected to the contour enhancement process by the contour enhancer 4. The color difference signals U d and V d delayed by the delay unit 5 are supplied to the D / A converter 102.

従って、上記D/A変換器102は、上記輪郭強調器4により輪郭強調処理が施された輝度信号Yddと、上記遅延器5により上記輝度信号Yddと同期がとられた色差信号U,Vをアナログ変換し、輝度信号Yda、色差信号U,Vとして出力する。 Accordingly, the D / A converter 102 includes the luminance signal Y dd that has been subjected to the contour enhancement process by the contour enhancer 4 and the color difference signal U d that is synchronized with the luminance signal Y dd by the delay device 5. the V d to analog conversion, and outputs the luminance signal Y da, the color difference signals U a, as V a.

上述のような構成をした画像処理装置の動作を説明する。   The operation of the image processing apparatus configured as described above will be described.

A/D変換器101は、入力された輝度信号Yと色差信号U,Vをデジタル変換し、デジタル変換した輝度信号Yと色差信号U,Vを肌領域検出部2に供給すると共に、上記輝度信号Yを輪郭強調器4に供給し、上記色差信号U,Vを遅延器5に供給する。 The A / D converter 101 digitally converts the input luminance signal Y a and the color difference signals U a and V a, and converts the digitally converted luminance signal Y d and the color difference signals U d and V d to the skin region detection unit 2. At the same time, the luminance signal Y d is supplied to the contour enhancer 4, and the color difference signals U d and V d are supplied to the delay unit 5.

上記肌領域検出部2は、上記A/D変換器101からの輝度信号Yと色差信号U,Vから肌領域を検出し、検出結果を示す肌色検出信号cntlを輪郭強調器4に供給する。また、検出した肌領域を解析することにより顔領域を検出し、検出した顔領域の情報i,i,j,jを輪郭強調器4に供給する。 The skin area detection unit 2 detects a skin area from the luminance signal Y d and the color difference signals U d and V d from the A / D converter 101 and outputs a skin color detection signal cntl 1 indicating the detection result to the contour enhancer 4. To supply. Further, the face area is detected by analyzing the detected skin area, and information i m , i p , j m , j p of the detected face area is supplied to the contour enhancer 4.

上記輪郭強調器4は、上記A/D変換器101からの輝度信号Yに輪郭強調処理を施して、輪郭強調処理を施した輝度信号YdaをD/A変換器102に供給する。 The edge enhancement unit 4 is subjected to edge enhancement processing on the luminance signal Y d from the A / D converter 101, and supplies the luminance signal Y da subjected to edge enhancement processing to the D / A converter 102.

この時、上記肌領域検出部2からの顔領域の情報i,i,j,jで示される領域に、現在の処理対象となっている輝度信号Yに対応する画素が含まれており、且つ、上記肌領域検出部2からの肌色検出信号cntlが現在の処理対象となっている画素は肌色であることを示している場合、上記輪郭強調器4は、強調の度合を小さくして上記輝度信号Yに輪郭強調処理を施し、輪郭強調処理を施した輝度信号YdaをD/A変換器102に供給する。 At this time, the area corresponding to the face area information i m , i p , j m , and j p from the skin area detection unit 2 includes a pixel corresponding to the luminance signal Y d that is the current processing target. If the skin color detection signal cntl 1 from the skin region detection unit 2 indicates that the pixel to be processed is a skin color, the contour enhancer 4 determines the degree of enhancement. the by reducing subjected to edge enhancement processing to the luminance signal Y d, and supplies the luminance signal Y da subjected to edge enhancement processing to the D / a converter 102.

遅延器5は、上記A/D変換器101からの色差信号U,Vを遅延して上記輪郭強調器4で輪郭強調処理が施された輝度信号Ydaとの同期をとり、遅延した色差信号U,VをD/A変換器102に供給する。 The delay unit 5 delays the color difference signals U a and V a from the A / D converter 101 to synchronize with the luminance signal Y da subjected to the contour enhancement process by the contour enhancer 4 and delays it. The color difference signals U a and V a are supplied to the D / A converter 102.

上記D/A変換器102は、上記輪郭強調器4からの輝度信号Yddと、上記遅延器5からの色差信号U,Vをアナログ変換し、輝度信号Yad、色差信号U,Vとして出力する。 The D / A converter 102 converts the luminance signal Y dd from the contour enhancer 4 and the color difference signals U d and V d from the delay unit 5 into analog signals, thereby obtaining the luminance signal Y ad and the color difference signals U a , and outputs it as the V a.

上述のように、本実施例では、上記図6に示した肌領域検出部2を適用し、上記肌領域検出部2により得られた過去の画像に対する顔領域の情報と、現在入力中の画像の画素単位の肌色検出信号により、強調の度合を調整して輪郭強調処理を行っているため、人物の顔の領域を強調することなく他の領域を強調することができる。従って、画像の鮮鋭度を向上させることができる。   As described above, in this embodiment, the skin area detection unit 2 shown in FIG. 6 is applied, and information on the face area with respect to the past image obtained by the skin area detection unit 2 and the currently input image are displayed. Since the contour enhancement process is performed by adjusting the degree of enhancement using the skin color detection signal in pixel units, it is possible to enhance other regions without enhancing the human face region. Therefore, the sharpness of the image can be improved.

次に、本発明の第6の実施例に係る画像処理装置について説明する。   Next, an image processing apparatus according to the sixth embodiment of the present invention is described.

上記画像処理装置は、図11に示すように、上述した第5の実施例に係る画像処理装置の構成に加えて、A/D変換器101によりデジタル変換された輝度信号Yと色差信号U,Vを記憶する画像メモリ6と、上記画像メモリ6に記憶された輝度信号Yと色差信号U,Vを色の3属性データに変換する座標変換器7と、上記座標変換器7により変換された3属性データが肌色の条件を満たしているか否かを検出する肌色画素検出器8とを備えている。 As shown in FIG. 11, the image processing apparatus has a luminance signal Y d and a color difference signal U digitally converted by the A / D converter 101 in addition to the configuration of the image processing apparatus according to the fifth embodiment described above. d, an image memory 6 for storing the V d, the coordinate converter 7 for converting the luminance signals stored in the image memory 6 Y d and the color difference signals U d, the V d to 3 attribute data of the color, the coordinate transformation And a flesh color pixel detector 8 for detecting whether or not the three attribute data converted by the device 7 satisfies the flesh color condition.

また、上記画像処理装置では、肌領域検出部2からは肌色検出信号cntlは出力されず、上記肌色画素検出器8から肌色検出信号cntlが輪郭強調器4に対して出力されることとなる。さらに、上記輪郭強調器4には、画像メモリ6に記憶された輝度信号Yが供給され、遅延器5にも、画像メモリ6に記憶された色差信号U,Vが供給されることとなる。 Further, in the image processing apparatus, a skin color detection signal cntl 1 from the skin area detection unit 2 is not output, and the skin color detection signal cntl 1 from the skin color pixel detector 8 is output to the edge enhancement unit 4 Become. Further, the luminance enhancer Y d stored in the image memory 6 is supplied to the contour enhancer 4, and the color difference signals U d and V d stored in the image memory 6 are also supplied to the delay unit 5. It becomes.

尚、上記図9に示した画像処理装置と同じ動作を示す箇所には同一の符号を付し、その詳細な説明を省略する。   In addition, the same code | symbol is attached | subjected to the location which shows the same operation | movement as the image processing apparatus shown in the said FIG. 9, and the detailed description is abbreviate | omitted.

即ち、本実施例では、画像メモリ6を用いて、入力された輝度信号Yと色差信号U,Vに、肌領域検出部2で顔領域の情報i,i,j,jを検出するのに要する時間に対応した遅延量、例えば、1画素分の遅延量を与える。上記画像メモリ6により遅延された輝度信号Yと色差信号U,Vは、座標変換器7に供給されると共に、上記輝度信号Yは、輪郭強調器4に供給され、上記色差信号U,Vは遅延器5に供給される。 That is, in this embodiment, by using the image memory 6, the luminance signal inputted Y d and the color difference signals U d, the V d, information i m in the skin area detection unit 2 face area, i p, j m, delay amount corresponding to the time required to detect the j p, for example, provides a delay of one pixel. The luminance signal Y d and the color difference signals U d , V d delayed by the image memory 6 are supplied to the coordinate converter 7, and the luminance signal Y d is supplied to the contour enhancer 4, and the color difference signal U d and V d are supplied to the delay unit 5.

上記座標変換器7は、上記画像メモリ6からの輝度信号Yと色差信号U,Vを輝度データY、色相データH、及び、クロマデータCに変換し、変換した輝度データY、色相データH、及び、クロマデータCを肌色画素検出器8に供給する。 上記肌色画素検出器8は、上記座標変換器7からの輝度データY、色相データH、及び、クロマデータCが肌色の条件、即ち、ヒストグラム生成器12において肌領域を検出する際に用いた上述したような条件
min<Y<Ymax
min<H<Hmax
min<C<Cmax
を満たすか否かを判定する。従って、その判定結果が肌色検出信号cntlとして輪郭強調器4に供給されることとなる。
The coordinate converter 7 converts the luminance signal Y d and the color difference signals U d and V d from the image memory 6 into luminance data Y, hue data H, and chroma data C, and converts the converted luminance data Y and hue. Data H and chroma data C are supplied to the flesh color pixel detector 8. The skin color pixel detector 8 is used when the luminance data Y, the hue data H, and the chroma data C from the coordinate converter 7 are skin color conditions, that is, when the histogram generator 12 detects a skin region. Conditions Y min <Y <Y max
H min <H <H max
C min <C <C max
It is judged whether or not Therefore, the determination result is supplied to the contour enhancer 4 as the skin color detection signal cntl 1 .

一方、肌領域検出部2により検出された顔領域の情報i,i,j,jは、輪郭強調器4に供給される。 On the other hand, the face area information i m , i p , j m , and j p detected by the skin area detection unit 2 is supplied to the contour enhancer 4.

上述のような構成をした画像処理装置の動作を説明する。   The operation of the image processing apparatus configured as described above will be described.

A/D変換器101は、入力された輝度信号Yと色差信号U,Vをデジタル変換し、デジタル変換した輝度信号Yと色差信号U,Vを肌領域検出部2に供給すると共に、画像メモリ6に供給する。 The A / D converter 101 digitally converts the input luminance signal Y a and the color difference signals U a and V a, and converts the digitally converted luminance signal Y d and the color difference signals U d and V d to the skin region detection unit 2. At the same time, it is supplied to the image memory 6.

上記画像メモリ6は、上記A/D変換器101からの輝度信号Yと色差信号U,Vに1画素分の遅延量を与え、遅延量を与えた輝度信号Yと色差信号U,Vを座標変換器7に供給する。また、上記画像メモリ6は、上記輝度信号Yを輪郭強調器4に供給し、上記色差信号U,Vを遅延器5に供給する。 The image memory 6, the luminance signal from the A / D converter 101 Y d and the color difference signals U d, giving a delay amount of one pixel in V d, luminance signal to give a delay amount Y d and the color difference signals U d and V d are supplied to the coordinate converter 7. The image memory 6 supplies the luminance signal Y d to the contour enhancer 4 and supplies the color difference signals U d and V d to the delay unit 5.

上記座標変換器7は、上記画像メモリ6からの輝度信号Yと色差信号U,Vを輝度データY、色相データH、及び、クロマデータCに変換し、変換した輝度データY、色相データH、及び、クロマデータCを肌色画素検出器8に供給する。 上記肌色画素検出器8は、上記座標変換器7からの輝度データY、色相データH、及び、クロマデータCが肌色の条件を満たしているか否かの判定を行い、判定結果を肌色検出信号cntlとして輪郭強調器4に供給する。 The coordinate converter 7 converts the luminance signal Y d and the color difference signals U d and V d from the image memory 6 into luminance data Y, hue data H, and chroma data C, and converts the converted luminance data Y and hue. Data H and chroma data C are supplied to the flesh color pixel detector 8. The skin color pixel detector 8 determines whether the luminance data Y, hue data H, and chroma data C from the coordinate converter 7 satisfy the skin color condition, and the determination result is used as the skin color detection signal cntl. 1 is supplied to the contour enhancer 4.

一方、肌領域検出部2は、上記A/D変換器101からの輝度信号Yと色差信号U,Vから肌領域を検出し、検出した肌領域を解析することにより顔領域を検出し、検出した顔領域の情報i,i,j,jを輪郭強調器4に供給する。 上記輪郭強調器4は、上記画像メモリ6からの輝度信号Yに輪郭強調処理を施して、輪郭強調処理を施した輝度信号YdaをD/A変換器102に供給する。 On the other hand, the skin area detection unit 2 detects a skin area from the luminance signal Y d and the color difference signals U d and V d from the A / D converter 101, and detects the face area by analyzing the detected skin area. Then, the detected face area information i m , i p , j m , and j p are supplied to the contour enhancer 4. The contour enhancer 4 performs a contour enhancement process on the luminance signal Y d from the image memory 6 and supplies the D / A converter 102 with the luminance signal Y da subjected to the contour enhancement process.

この時、上記肌領域検出部2からの顔領域の情報i,i,j,jで示される領域に、現在の処理対象となっている輝度信号Yに対応する画素が含まれており、且つ、上記肌領域検出部2からの肌色検出信号cntlが現在の処理対象となっている画素は肌色であることを示している場合、上記輪郭強調器4は、強調の度合を小さくして上記輝度信号Yに輪郭強調処理を施し、輪郭強調処理を施した輝度信号YdaをD/A変換器102に供給する。 At this time, the area corresponding to the face area information i m , i p , j m , and j p from the skin area detection unit 2 includes a pixel corresponding to the luminance signal Y d that is the current processing target. If the skin color detection signal cntl 1 from the skin region detection unit 2 indicates that the pixel to be processed is a skin color, the contour enhancer 4 determines the degree of enhancement. the by reducing subjected to edge enhancement processing to the luminance signal Y d, and supplies the luminance signal Y da subjected to edge enhancement processing to the D / a converter 102.

また、上記遅延器5は、上記画像メモリ6からの色差信号U,Vを遅延して上記輪郭強調器4で輪郭強調処理が施された輝度信号Ydaとの同期をとり、遅延した色差信号U,VをD/A変換器102に供給する。 Further, the delay unit 5 delays the color difference signals U a and V a from the image memory 6 to synchronize with the luminance signal Y da subjected to the contour emphasis processing by the contour enhancer 4 and delays it. The color difference signals U a and V a are supplied to the D / A converter 102.

上記D/A変換器102は、上記輪郭強調器4からの輝度信号Yddと、上記遅延器5からの色差信号U,Vをアナログ変換し、輝度信号Yad、色差信号U,Vとして出力する。 The D / A converter 102 converts the luminance signal Y dd from the contour enhancer 4 and the color difference signals U d and V d from the delay unit 5 into analog signals, thereby obtaining the luminance signal Y ad and the color difference signals U a , and outputs it as the V a.

上述のように、上記肌領域検出部2で得られる顔領域の情報i,i,j,jは、輪郭強調器4で実際に輪郭強調処理を施す画像から求められたものである。従って、より正確な顔領域の位置を輪郭強調処理に反映させることができるため、画像の鮮鋭度をより向上させることができる。 As described above, the face area information i m , i p , j m , and j p obtained by the skin area detection unit 2 is obtained from an image that is actually subjected to the contour emphasis process by the contour enhancer 4. is there. Therefore, since the more accurate position of the face area can be reflected in the contour enhancement process, the sharpness of the image can be further improved.

次に、本発明の第7の実施例に係る画像処理装置について説明する。   Next, an image processing apparatus according to the seventh embodiment of the present invention is described.

上記画像処理装置は、図12に示すように、上述した第7の実施例に係る画像処理装置の構成に加えて、A/D変換器101によりデジタル変換された輝度信号Yと色差信号U,Vからシーンの変わり目を検出するシーンチェンジ検出器9と、上記シーンチェンジ検出器9の検出結果に基づいて肌領域検出部2により得られた顔領域の情報i,i,j,jに対して時間的平滑化処理を施す顔領域平滑化器10とを備えている。 As shown in FIG. 12, the image processing apparatus has a luminance signal Y d and a color difference signal U digitally converted by the A / D converter 101 in addition to the configuration of the image processing apparatus according to the seventh embodiment. d, from the V d and the scene change detector 9 for detecting a scene change, the information of the face region obtained by the skin area detection unit 2 based on the detection result of the scene change detector 9 i m, i p, j and a face area smoother 10 that performs temporal smoothing on m 1 and j p .

また、上記画像処理装置では、肌領域検出部2により得られた顔領域の情報i,i,j,jは、顔領域平滑化器10を介して輪郭強調器4に供給される。さらに、上記画像処理装置では、画像メモリ6における遅延量は、肌領域検出部2で顔領域の情報を検出するのに要する時間の2倍の遅延量とし、肌領域検出部2により得られた顔領域の情報i,i,j,jと輪郭強調器4で輪郭強調処理が施される画像とを完全に対応させている。 In the image processing apparatus, the face area information i m , i p , j m , and j p obtained by the skin area detection unit 2 is supplied to the contour enhancer 4 via the face area smoother 10. The Further, in the above image processing apparatus, the delay amount in the image memory 6 is set to a delay amount that is twice the time required for the skin region detection unit 2 to detect the facial region information, and is obtained by the skin region detection unit 2. The face area information i m , i p , j m , and j p are completely associated with the image subjected to the contour emphasis processing by the contour enhancer 4.

尚、上記図11に示した画像処理装置と同じ動作を示す箇所には同一の符号を付し、その詳細な説明を省略する。   In addition, the same code | symbol is attached | subjected to the location which shows the same operation | movement as the image processing apparatus shown in the said FIG. 11, and the detailed description is abbreviate | omitted.

即ち、シーンチェンジ検出器9は、入力された輝度信号Yと色差信号U,Vに対応する画像と、肌領域検出部2により得られた顔領域の情報i,i,j,jに対応する画像の間でシーンチェンジが発生したか否かを検出する。 That is, the scene change detector 9 includes the image corresponding to the input luminance signal Y d and the color difference signals U d and V d , and the face area information i m , i p , j obtained by the skin area detection unit 2. m, to detect whether a scene change occurs between the image corresponding to the j p.

具体的に説明すると、例えば、上記肌領域検出部2で顔領域の情報を検出するのに要する時間が1画像分である場合、上記シーンチェンジ検出器9は、輪郭強調器4で輪郭強調処理が施される画像と、それよりも時間的に1画像分前に入力されている画像の間でシーンチェンジが発生したか否かを検出する。   More specifically, for example, when the time required for detecting information on the face area by the skin area detection unit 2 is one image, the scene change detector 9 uses the edge enhancer 4 to perform edge enhancement processing. It is detected whether or not a scene change has occurred between an image subjected to the above and an image input one image earlier in time.

このようなシーンチェンジの検出は、従来用いられている検出方法を適用することができる。   For detection of such a scene change, a conventionally used detection method can be applied.

従って、上記シーンチェンジ検出器9の検出結果は、制御信号cntlとして顔領域平滑化器10に供給される。 Therefore, the detection result of the scene change detector 9 is supplied to the face area smoother 10 as the control signal cntl 2 .

上記顔領域平滑化器10は、肌領域検出部2により得られた顔領域の情報i,i,j,jの空間的な位置を時間的に平滑化して顔領域の情報idm,idp,jdm,jdpとして輪郭強調器4に供給する。 The face area smoother 10 temporally smoothes the spatial position of the face area information i m , i p , j m , and j p obtained by the skin area detection unit 2 to obtain the face area information i. dm , i dp , j dm , and j dp are supplied to the contour enhancer 4.

例えば、時間的平滑化処理として、時刻nの画像から算出された顔領域境界座標l(=i,i,j,j)と、時刻nの画像に対する輪郭強調処理に用いられる境界座標ldn(=idm,idp,jdm,jdp)と、現在時刻に得られた境界座標の寄与率pとを持って、
dn=pl+(1−p)ldn
なる再帰的フィルタリングを用いる。
For example, as the temporal smoothing process, the face region boundary coordinates l n (= i m , i p , j m , j p ) calculated from the image at time n and the contour enhancement process for the image at time n are used. With boundary coordinates l dn (= i dm , i dp , j dm , j dp ) and the contribution rate p of the boundary coordinates obtained at the current time,
l dn = pl n + (1-p) l dn −1
Use recursive filtering.

この時、上記シーンチェンジ検出器9からの制御信号cntlがシーンチェンジ発生を示している場合、上記顔領域平滑化器10は、上述のような時間的平滑化処理を行わず、肌領域検出部2により得られた顔領域の情報i,i,j,jをそのまま輪郭強調器4に供給する。 At this time, when the control signal cntl 2 from the scene change detector 9 indicates the occurrence of a scene change, the face region smoother 10 does not perform the temporal smoothing process as described above, and detects the skin region. The face area information i m , i p , j m , and j p obtained by the unit 2 are supplied to the contour enhancer 4 as they are.

上述のような構成をした画像処理装置の動作を説明する。   The operation of the image processing apparatus configured as described above will be described.

A/D変換器101は、入力された輝度信号Yと色差信号U,Vをデジタル変換し、デジタル変換した輝度信号Yと色差信号U,Vを肌領域検出部2、画像メモリ6、及び、シーンチェンジ検出器9に各々供給する。 The A / D converter 101 digitally converts the input luminance signal Y a and the color difference signals U a and V a, and converts the digitally converted luminance signal Y d and the color difference signals U d and V d into the skin region detection unit 2. This is supplied to the image memory 6 and the scene change detector 9, respectively.

上記画像メモリ6は、上記A/D変換器101からの輝度信号Yと色差信号U,Vに1画素分の遅延量を与え、遅延量を与えた輝度信号Yと色差信号U,Vを座標変換器7に供給する。また、上記画像メモリ6は、上記輝度信号Yを輪郭強調器4に供給し、上記色差信号U,Vを遅延器5に供給する。 The image memory 6, the luminance signal from the A / D converter 101 Y d and the color difference signals U d, giving a delay amount of one pixel in V d, luminance signal to give a delay amount Y d and the color difference signals U d and V d are supplied to the coordinate converter 7. The image memory 6 supplies the luminance signal Y d to the contour enhancer 4 and supplies the color difference signals U d and V d to the delay unit 5.

上記座標変換器7は、上記画像メモリ6からの輝度信号Yと色差信号U,Vを輝度データY、色相データH、及び、クロマデータCに変換し、変換した輝度データY、色相データH、及び、クロマデータCを肌色画素検出器8に供給する。 上記肌色画素検出器8は、上記座標変換器7からの輝度データY、色相データH、及び、クロマデータCが肌色の条件を満たしているか否かの判定を行い、判定結果を肌色検出信号cntlとして輪郭強調器4に供給する。 The coordinate converter 7 converts the luminance signal Y d and the color difference signals U d and V d from the image memory 6 into luminance data Y, hue data H, and chroma data C, and converts the converted luminance data Y and hue. Data H and chroma data C are supplied to the flesh color pixel detector 8. The skin color pixel detector 8 determines whether the luminance data Y, hue data H, and chroma data C from the coordinate converter 7 satisfy the skin color condition, and the determination result is used as the skin color detection signal cntl. 1 is supplied to the contour enhancer 4.

一方、肌領域検出部2は、上記A/D変換器101からの輝度信号Yと色差信号U,Vから肌領域を検出し、検出した肌領域を解析することにより顔領域を検出し、検出した顔領域の情報i,i,j,jを顔領域平滑化器10に供給する。 On the other hand, the skin area detection unit 2 detects a skin area from the luminance signal Y d and the color difference signals U d and V d from the A / D converter 101, and detects the face area by analyzing the detected skin area. Then, the detected face area information i m , i p , j m , and j p are supplied to the face area smoother 10.

また、シーンチェンジ検出器9は、上記A/D変換器101からの輝度信号Yと色差信号U,Vに対応する画像と、上記肌領域検出部2により得られた顔領域の情報i,i,j,jに対応する画像の間でシーンチェンジが発生したか否かを検出し、検出結果を制御信号cntlとして顔領域平滑化器10に供給する。 The scene change detector 9 also includes an image corresponding to the luminance signal Y d and the color difference signals U d and V d from the A / D converter 101, and information on the face area obtained by the skin area detection unit 2. It is detected whether or not a scene change has occurred between images corresponding to i m , i p , j m , and j p , and the detection result is supplied to the face region smoother 10 as a control signal cntl 2 .

上記顔領域平滑化器10は、上記シーンチェンジ検出器9からの制御信号cntl2に基づいて、上記肌領域検出部2からの顔領域の情報i,i,j,jの空間的な位置を時間的に平滑化し、平滑化した顔領域の情報idm,idp,jdm,jdpを輪郭強調器4に供給する。 Based on the control signal cntl 2 from the scene change detector 9, the face area smoother 10 spatially stores the face area information i m , i p , j m , and j p from the skin area detector 2. The smooth positions are smoothed in time, and the smoothed face area information i dm , i dp , j dm , j dp is supplied to the contour enhancer 4.

上記輪郭強調器4は、上記画像メモリ6からの輝度信号Yに輪郭強調処理を施して、輪郭強調処理を施した輝度信号YdaをD/A変換器102に供給する。 The contour enhancer 4 performs a contour enhancement process on the luminance signal Y d from the image memory 6 and supplies the D / A converter 102 with the luminance signal Y da subjected to the contour enhancement process.

この時、上記顔領域平滑化器10からの顔領域の情報idm,idp,jdm,jdpで示される領域に、現在の処理対象となっている輝度信号Yに対応する画素が含まれており、且つ、上記肌領域検出部2からの肌色検出信号cntlが現在の処理対象となっている画素は肌色であることを示している場合、上記輪郭強調器4は、強調の度合を小さくして上記輝度信号Yに輪郭強調処理を施し、輪郭強調処理を施した輝度信号YdaをD/A変換器102に供給する。 At this time, a pixel corresponding to the luminance signal Y d that is the current processing target is present in the area indicated by the face area information i dm , i dp , j dm , and j dp from the face area smoother 10. If it is included and the skin color detection signal cntl 1 from the skin region detection unit 2 indicates that the pixel that is the current processing target is skin color, the contour enhancer 4 performing edge enhancement processing to the luminance signal Y d by reducing the degree and supplies the luminance signal Y da subjected to edge enhancement processing to the D / a converter 102.

また、上記遅延器5は、上記画像メモリ6からの色差信号U,Vを遅延して上記輪郭強調器4で輪郭強調処理が施された輝度信号Ydaとの同期をとり、遅延した色差信号U,VをD/A変換器102に供給する。 Further, the delay unit 5 delays the color difference signals U a and V a from the image memory 6 to synchronize with the luminance signal Y da subjected to the contour emphasis processing by the contour enhancer 4 and delays it. The color difference signals U a and V a are supplied to the D / A converter 102.

上記D/A変換器102は、上記輪郭強調器4からの輝度信号Yddと、上記遅延器5からの色差信号U,Vをアナログ変換し、輝度信号Yad、色差信号U,Vとして出力する。 The D / A converter 102 converts the luminance signal Y dd from the contour enhancer 4 and the color difference signals U d and V d from the delay unit 5 into analog signals, thereby obtaining the luminance signal Y ad and the color difference signals U a , and outputs it as the V a.

上述のように、本実施例では、同一シーンであった場合には、肌領域検出部2により得られた顔領域の情報i,i,j,jに対して時間的平滑化処理を施さないため、同一シーンにおける顔領域の時間的変動を緩和することができる。従って、画像の鮮鋭度を向上させることができる。 As described above, in the present embodiment, when the scenes are the same, temporal smoothing is performed on the face area information i m , i p , j m , and j p obtained by the skin area detection unit 2. Since no processing is performed, temporal variation of the face area in the same scene can be reduced. Therefore, the sharpness of the image can be improved.

尚、上述の実施例では、上述した第7の実施例に係る画像処理装置の構成にシーンチェンジ検出器9と顔領域平滑化器10を付加することとしたが、上述した第5の実施例に係る画像処理装置の構成にシーンチェンジ検出器9と顔領域平滑化器10を付加することとしてもよい。   In the above-described embodiment, the scene change detector 9 and the face area smoother 10 are added to the configuration of the image processing apparatus according to the above-described seventh embodiment, but the above-described fifth embodiment. The scene change detector 9 and the face area smoother 10 may be added to the configuration of the image processing apparatus according to FIG.

次に、本発明の第8の実施例に係る画像処理装置について説明する。   Next, an image processing apparatus according to an eighth embodiment of the present invention is described.

上記画像処理装置は、上述した第5の実施例に係る画像処理装置の輪郭強調器4を階調変換器に置き換えたものである。   In the image processing apparatus, the contour enhancer 4 of the image processing apparatus according to the fifth embodiment described above is replaced with a gradation converter.

上記階調変換器は、図13に示すように、係数算出器41と、係数平滑化器42と、レベル変換器403と、重み付き加算器404とを備えている。   As shown in FIG. 13, the gradation converter includes a coefficient calculator 41, a coefficient smoother 42, a level converter 403, and a weighted adder 404.

尚、上記図10に示した輪郭強調器と同じ動作を示す箇所には同一の符号を付し、その詳細な説明を省略する。   In addition, the same code | symbol is attached | subjected to the location which shows the same operation | movement as the outline enhancer shown in the said FIG. 10, and the detailed description is abbreviate | omitted.

上記係数算出器41と係数平滑化器42は、上述した輪郭強調器4に設けられているものと同じものであり、上記輪郭強調器4の場合と同様にして、平滑化補正係数cdijを算出し、算出した平滑化補正係数cdijをレベル変換器403に供給する。 The coefficient calculator 41 and the coefficient smoother 42 are the same as those provided in the contour enhancer 4 described above, and the smoothing correction coefficient c dij is calculated in the same manner as in the case of the contour enhancer 4 . The calculated smoothing correction coefficient c dij is supplied to the level converter 403.

上記レベル変換器403は、入力された輝度信号Yに対して階調変換処理を施し、階調変換処理を施した輝度信号Yceを生成する。 The level converter 403 performs a gradation conversion processing on the input luminance signal Y d, and generates a luminance signal Y ce subjected to the gradation conversion processing.

上記階調変換は、変換関数gを持って
ce=g(Y
で示され、変換関数gは、例えば、図14に示すように、非線形の単調増加関数である。また、その形状は変換すべき画像の性質に依存する。このようにして画像から変換関数gを構成する方法は、従来用いられている方法を適用することができる。
The gradation conversion has a conversion function g and Y ce = g (Y d )
The conversion function g is, for example, a non-linear monotonically increasing function as shown in FIG. The shape depends on the properties of the image to be converted. As a method of constructing the conversion function g from an image in this manner, a conventionally used method can be applied.

上記レベル変換器403により階調変換処理が施された輝度信号Yceは、重み付き加算器404に供給される。上記重み付き加算器404には、上記レベル変換器403から輝度信号Yceが供給されると共に、入力された輝度信号Yが供給される。また、係数平滑化器42により得られた平滑化補正係数cdijが、上記レベル変換器403を介して上記重み付き加算器404に供給される。 The luminance signal Y ce that has been subjected to the gradation conversion processing by the level converter 403 is supplied to the weighted adder 404. The weighted adder 404 is supplied with the luminance signal Y ce from the level converter 403 and the input luminance signal Y d . Also, the smoothing correction coefficient c dij obtained by the coefficient smoother 42 is supplied to the weighted adder 404 via the level converter 403.

上記重み付き加算器404は、入力された輝度信号Yと、上記レベル変換器403からの輝度信号Yceの重み付き加算を行う。この時に用いる重みは、係数平滑化器42により得られた平滑化補正係数cdijを用いる。 The weighted adder 404 performs a luminance signal Y d input, the weighted addition of luminance signal Y ce from the level converter 403. As the weight used at this time, the smoothing correction coefficient c dij obtained by the coefficient smoother 42 is used.

即ち、入力された輝度信号Yに対して階調変換処理が施された輝度信号Yddは、
dd=(1−cdij)Y+cdijce
なる演算により求められる。
That is, the luminance signal Y dd obtained by performing gradation conversion processing on the input luminance signal Y d is
Y dd = (1−c dij ) Y d + c dij Y ce
Is obtained by the following calculation.

これは、現在の画素が顔領域内に位置し、且つ、肌色であった場合、即ち、平滑化補正係数cdijが小さい場合には、入力された輝度信号Yの重みが大きくなり、それ以外の場合には、レベル変換器403により階調変換処理が施された輝度信号Yceの重みが大きくなることを示している。 This is because when the current pixel is located in the face area and is a skin color, that is, when the smoothing correction coefficient c dj is small, the weight of the input luminance signal Y d increases. In other cases, the weight of the luminance signal Y ce that has been subjected to the gradation conversion processing by the level converter 403 is increased.

上述のように、本実施例では、入力中の画像の画素単位の肌色検出信号cntlに基づいた平滑化補正係数cdijにより、重み調整して階調変調処理を行っているため、人物の顔領域を階調変換することなく他の領域を階調変換することにより、画像のコントラスト感を向上させることができる。 As described above, in this embodiment, the tone modulation processing is performed by adjusting the weight by the smoothing correction coefficient c dj based on the skin color detection signal cntl 1 of the pixel of the image being input. By converting the gradation of other areas without converting the gradation of the face area, the contrast of the image can be improved.

尚、上述した実施例では、上述した第5の実施例に係る画像処理装置の輪郭強調器4を階調変換器に置き換えるものとしたが、上述した第6の実施例に係る画像処理装置の輪郭強調器4を階調変換器に置き換えるものとしてもよい。この場合、肌領域検出部2により得られる顔領域の情報i,i,j,jは、実際に階調変換処理を行う画像から算出されたものであるため、より正確に顔領域の位置を階調変換処理に反映させることができる。従って、画像のコントラスト感をさらに向上させることができる。 In the above-described embodiment, the contour enhancer 4 of the image processing apparatus according to the fifth embodiment described above is replaced with a gradation converter, but the image processing apparatus according to the sixth embodiment described above is replaced. The contour enhancer 4 may be replaced with a gradation converter. In this case, the face area information i m , i p , j m , and j p obtained by the skin area detection unit 2 is calculated from an image that is actually subjected to gradation conversion processing, and thus more accurately The position of the area can be reflected in the gradation conversion process. Accordingly, the contrast of the image can be further improved.

また、上述した第7の実施例に係る画像処理装置の輪郭強調器4を階調変換器に置き換えるものとしてもよい。この場合、同一シーンにおける顔領域の時間的変動を緩和することができるため、画像のコントラスト感をさらに向上させることができる。   Further, the contour enhancer 4 of the image processing apparatus according to the seventh embodiment described above may be replaced with a gradation converter. In this case, the temporal variation of the face area in the same scene can be mitigated, so that the contrast of the image can be further improved.

尚、上述した第5〜第8の実施例では、第3の実施例に係る画像処理装置の肌領域検出部を適用するものとしたが、第1、第2、及び、第4の実施例に係る画像処理装置の肌領域検出部を適用するものとしてもよい。   In the fifth to eighth embodiments described above, the skin region detection unit of the image processing apparatus according to the third embodiment is applied. However, the first, second, and fourth embodiments are applied. The skin region detection unit of the image processing apparatus according to the above may be applied.

本発明の第1の実施例に係る画像処理装置の肌領域検出部の構成を示すブロック図である。It is a block diagram which shows the structure of the skin area | region detection part of the image processing apparatus which concerns on 1st Example of this invention. 画像の走査方向を表した図である。It is a figure showing the scanning direction of an image. 水平方向の肌色画素ヒストグラムの生成処理を説明するための図である。It is a figure for demonstrating the production | generation process of the skin color pixel histogram of a horizontal direction. 上記肌色画素ヒストグラムの解析処理を説明するための図である。It is a figure for demonstrating the analysis process of the said skin color pixel histogram. 水平方向及び垂直方向の肌色画素ヒストグラムの生成処理を説明するための図である。It is a figure for demonstrating the production | generation process of the skin color pixel histogram of a horizontal direction and a vertical direction. 本発明の第3の実施例に係る画像処理装置の肌領域検出部の構成を示すブロック図である。It is a block diagram which shows the structure of the skin area | region detection part of the image processing apparatus which concerns on 3rd Example of this invention. 本発明の第4の実施例に係る画像処理装置の肌領域検出部の構成を示すブロック図である。It is a block diagram which shows the structure of the skin area | region detection part of the image processing apparatus which concerns on the 4th Example of this invention. 水平方向及び垂直方向の肌色ブロックヒストグラムの生成処理を説明するための図である。It is a figure for demonstrating the production | generation process of the skin color block histogram of a horizontal direction and a vertical direction. 本発明の第5の実施例に係る画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus which concerns on the 5th Example of this invention. 上記画像処理装置の輪郭強調器の構成を示すブロック図である。It is a block diagram which shows the structure of the outline enhancer of the said image processing apparatus. 本発明の第6の実施例に係る画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus which concerns on the 6th Example of this invention. 本発明の第7の実施例に係る画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus which concerns on the 7th Example of this invention. 上記画像処理装置の階調変換器の構成を示すブロック図である。It is a block diagram which shows the structure of the gradation converter of the said image processing apparatus. 階調変換関数を示す図である。It is a figure which shows a gradation conversion function.

符号の説明Explanation of symbols

1,2,3 肌領域検出部、4 輪郭強調器、5 遅延器、6 画像メモリ、7 座標変換器、8 肌色画素検出器、9 シーンチェンジ検出器、10 顔領域平滑化器、11 座標変換器、12 ヒストグラム生成器、13 メモリ、14 顔領域判定器、21 垂直輝度変化検出器、31 ブロック内特徴量算出器   1, 2, 3 Skin region detection unit, 4 Outline enhancer, 5 Delay device, 6 Image memory, 7 Coordinate converter, 8 Skin color pixel detector, 9 Scene change detector, 10 Face region smoother, 11 Coordinate transformation , 12 Histogram generator, 13 Memory, 14 Face area determiner, 21 Vertical luminance change detector, 31 In-block feature quantity calculator

Claims (3)

入力された人物画像データをデジタル化した輝度データと色差データに変換し、デジタル化された輝度データと色差データから肌領域を検出する肌領域検出手段を備える画像処理装置であって、
上記輝度データと色差データを輝度データと色相データとクロマデータの3属性データに変換する変換手段と、上記変換手段により得られた輝度データから肌色領域における垂直方向の輝度変化を検出して上記垂直方向の輝度変化の水平方向の各位置ごとの累積分布及び垂直方向の各位置ごとの累積分布を生成する垂直輝度変化検出手段と、上記変換手段により得られた3属性データから肌色画素を抽出する肌色画素抽出手段と、上記肌色画素抽出手段により抽出された肌色画素の空間的な肌色画素分布を生成する肌色画素分布生成手段と、上記肌色画素分布生成手段により生成された肌色画素分布と、上記垂直輝度変化検出手段により生成された垂直方向の輝度変化の水平方向の各位置ごとの累積分布及び垂直方向の各位置ごとの累積分布とから人物画像の顔領域を判定する顔領域判定手段とを備える上記肌領域検出手段と、
上記入力された人物画像データの輝度データに輪郭強調処理を行う輪郭強調手段と、
上記入力された人物画像データの色差データに上記輪郭強調処理に要する時間に対応した所定の遅延量を与え、上記輪郭強調手段により輪郭強調処理が施された輝度データと同期した色差データを出力する遅延手段とを備え、
上記肌領域検出手段により検出された肌領域情報に基づいて上記輪郭強調手段を制御することを特徴とする画像処理装置。
An image processing apparatus comprising skin area detecting means for converting input human image data into digitized luminance data and color difference data, and detecting a skin area from the digitized luminance data and color difference data,
Conversion means for converting the luminance data and the color difference data into three attribute data of luminance data, hue data, and chroma data; and a vertical luminance change in the skin color region is detected from the luminance data obtained by the conversion means; Vertical luminance change detection means for generating a cumulative distribution for each position in the horizontal direction and a cumulative distribution for each position in the vertical direction, and skin color pixels are extracted from the three attribute data obtained by the conversion means. A flesh color pixel extracting means; a flesh color pixel distribution generating means for generating a spatial flesh color pixel distribution of the flesh color pixels extracted by the flesh color pixel extracting means; a flesh color pixel distribution generated by the flesh color pixel distribution generating means; Cumulative distribution of vertical luminance changes generated by the vertical luminance change detecting means for each position in the horizontal direction and cumulative distribution for each position in the vertical direction And the skin area detection means and a determining face area determination means a face area of a person image from,
Contour emphasizing means for performing contour emphasis processing on the luminance data of the input human image data;
A predetermined delay amount corresponding to the time required for the contour enhancement process is given to the color difference data of the input human image data, and the color difference data synchronized with the luminance data subjected to the contour enhancement process by the contour enhancement means is output. A delay means,
An image processing apparatus for controlling the contour emphasizing means based on skin area information detected by the skin area detecting means.
上記輝度データと色差データに変換された人物画像データを記憶し、上記肌領域検出手段で肌領域情報を検出するのに要する時間に対応した所定の遅延量を与えて出力する記憶手段と、
上記記憶手段により上記所定の遅延量を与えられた人物画像データを輝度データと色相データとクロマデータの3属性データに変換する変換手段と、
上記変換手段により得られた3属性データから肌色データを検出する検出手段とを備え、
上記遅延手段は、上記記憶手段により上記所定の遅延量を与えられた人物画像データの色差データに上記輪郭強調処理に要する時間に対応した所定の遅延量を与え、
上記輪郭強調手段は、上記肌領域検出手段により検出された肌領域情報に基づいた制御により、上記検出手段により検出された検出結果に対応する人物画像データの輝度データに輪郭強調処理を行うことを特徴とする請求項1記載の画像処理装置。
Storage means for storing the human image data converted into the luminance data and the color difference data, and giving and outputting a predetermined delay amount corresponding to the time required for detecting the skin area information by the skin area detection means;
Conversion means for converting the human image data given the predetermined delay amount by the storage means into three attribute data of luminance data, hue data, and chroma data;
Detection means for detecting skin color data from the three attribute data obtained by the conversion means,
The delay means gives a predetermined delay amount corresponding to the time required for the contour emphasizing process to the color difference data of the person image data given the predetermined delay amount by the storage means,
The contour emphasizing unit performs contour emphasis processing on the luminance data of the person image data corresponding to the detection result detected by the detecting unit by control based on the skin region information detected by the skin region detecting unit. The image processing apparatus according to claim 1, wherein:
上記入力された人物画像データからシーンの変わり目を検出するシーンチェンジ検出手段と、
上記シーンチェンジ検出手段の検出結果に基づいて同じシーンが連続した場合のみ上記肌領域検出手段により検出された肌領域情報の空間的な位置を上記肌領域検出手段により前の画像で検出された肌領域情報の空間的な位置により時間的に平滑化する平滑化手段とを備え、
上記輪郭強調手段は、上記平滑化手段からの肌領域情報に基づいた制御により上記検出手段により検出された検出結果に対応する人物画像データの輝度データに輪郭強調処理を行うことを特徴とする請求項1記載の画像処理装置。
Scene change detection means for detecting a scene change from the input person image data;
Only when the same scene continues based on the detection result of the scene change detection means, the skin where the spatial position of the skin area information detected by the skin area detection means is detected in the previous image by the skin area detection means Smoothing means for smoothing temporally according to the spatial position of the region information,
The contour emphasizing unit performs contour emphasis processing on luminance data of human image data corresponding to a detection result detected by the detecting unit by control based on skin area information from the smoothing unit. Item 6. The image processing apparatus according to Item 1.
JP2004073278A 2004-03-15 2004-03-15 Image processing device Expired - Fee Related JP4049116B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004073278A JP4049116B2 (en) 2004-03-15 2004-03-15 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004073278A JP4049116B2 (en) 2004-03-15 2004-03-15 Image processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP29346794A Division JP3561985B2 (en) 1994-11-28 1994-11-28 Image processing device

Publications (2)

Publication Number Publication Date
JP2004173328A JP2004173328A (en) 2004-06-17
JP4049116B2 true JP4049116B2 (en) 2008-02-20

Family

ID=32709595

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004073278A Expired - Fee Related JP4049116B2 (en) 2004-03-15 2004-03-15 Image processing device

Country Status (1)

Country Link
JP (1) JP4049116B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006011618A (en) * 2004-06-23 2006-01-12 Noritsu Koki Co Ltd Photographic image processing method and its device
JP4883783B2 (en) 2006-12-22 2012-02-22 キヤノン株式会社 Image processing apparatus and method
JP4054360B1 (en) 2007-03-30 2008-02-27 三菱電機株式会社 Image processing apparatus and program recording medium
CN101605257B (en) * 2008-06-11 2011-04-13 北京中创信测科技股份有限公司 Blocking effect analysis method and system
JP6433177B2 (en) * 2014-07-01 2018-12-05 キヤノン株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2004173328A (en) 2004-06-17

Similar Documents

Publication Publication Date Title
JP3561985B2 (en) Image processing device
US9569827B2 (en) Image processing apparatus and method, and program
JP3221291B2 (en) Image processing device, image processing method, noise elimination device, and noise elimination method
KR101554403B1 (en) Image processing device, image processing method, and recording medium for control program
KR101518722B1 (en) Image enhancement processing method and apparatus for distortion correction by air particle like fog
KR102153607B1 (en) Apparatus and method for detecting foreground in image
JP4858609B2 (en) Noise reduction device, noise reduction method, and noise reduction program
JP2003230160A (en) Color picture saturation adjustment apparatus and method therefor
JP4169188B2 (en) Image processing method
JP2010147986A (en) Image processing apparatus and image processing method, and program
JP2006195651A (en) Gradation compensation device
JP2006197584A (en) Black/white stretching system using rgb information in image
JP4992433B2 (en) Image processing apparatus, image processing method, program for image processing method, and recording medium recording program for image processing method
CN111583357A (en) Object motion image capturing and synthesizing method based on MATLAB system
JP4049116B2 (en) Image processing device
JP2002522830A (en) Apparatus and method for detecting moving object in color frame image sequence
JP2002140700A (en) Method and device for processing color image
JP4708866B2 (en) Lookup table creation device and method, and lookup table creation program
JP7427398B2 (en) Image processing device, image processing method, image processing system and program
JP2004266842A (en) Image processing apparatus
JP2005285071A (en) Image processor
CN110035267B (en) Image enhancement circuit and method
JP2008294969A (en) Video image conversion apparatus, method, and program
KR101631023B1 (en) Neighbor-based intensity correction device, background acquisition device and method thereof
JP2010154484A (en) Device, method and program for video conversion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070129

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071001

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20071010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071119

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101207

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101207

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111207

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111207

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121207

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees