JP6396138B2 - Human body detection device - Google Patents

Human body detection device Download PDF

Info

Publication number
JP6396138B2
JP6396138B2 JP2014190367A JP2014190367A JP6396138B2 JP 6396138 B2 JP6396138 B2 JP 6396138B2 JP 2014190367 A JP2014190367 A JP 2014190367A JP 2014190367 A JP2014190367 A JP 2014190367A JP 6396138 B2 JP6396138 B2 JP 6396138B2
Authority
JP
Japan
Prior art keywords
pixel
skin color
image
value
mapping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014190367A
Other languages
Japanese (ja)
Other versions
JP2016061692A (en
Inventor
健太 永峰
健太 永峰
祐次郎 谷
祐次郎 谷
健太 西行
健太 西行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2014190367A priority Critical patent/JP6396138B2/en
Publication of JP2016061692A publication Critical patent/JP2016061692A/en
Application granted granted Critical
Publication of JP6396138B2 publication Critical patent/JP6396138B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Geophysics And Detection Of Objects (AREA)

Description

本発明は、入力された画像から人体の特定の部位を検出する人体検出装置に関する。   The present invention relates to a human body detection device that detects a specific part of a human body from an input image.

カメラにより撮影されたフレーム画像から人物の特定の部位(顔、手のひらなど)を検出する技術が用いられている。この技術では、検出すべき人物の部位の位置を特定するために、フレーム画像内の肌色領域を特定する処理が用いられる。   A technique for detecting a specific part (face, palm, etc.) of a person from a frame image taken by a camera is used. In this technique, in order to specify the position of a part of a person to be detected, a process for specifying a skin color region in a frame image is used.

例えば、下記特許文献1には、RGB色空間を有する画像データを入力し、入力した画像データから人物の顔を検出する肌色領域検出装置が開示されている。   For example, Patent Document 1 below discloses a skin color area detection apparatus that inputs image data having an RGB color space and detects a human face from the input image data.

特許文献1に係る肌色領域検出装置は、入力した画像データの色空間をHSV色空間に変換する。肌色領域検出装置は、入力した画像データにおける楕円形の明るい領域を、V成分のデータを用いて検出し、検出した楕円形の領域を囲む矩形領域を特定する。肌色領域検出装置は、矩形領域に含まれる画素が肌色を有している場合、矩形領域を人物の顔と判断する。   The skin color area detection apparatus according to Patent Document 1 converts the color space of input image data into an HSV color space. The skin color area detection device detects an elliptical bright area in the input image data using the V component data, and specifies a rectangular area surrounding the detected elliptical area. When the pixels included in the rectangular area have a skin color, the skin color area detection device determines that the rectangular area is a human face.

特開2007−257087号公報Japanese Patent Laid-Open No. 2007-257087

カメラが備えるCCD,CMOSなどの撮像素子から出力される信号には、被写体の光量に応じた信号の他に、ノイズが含まれる。比較的暗い場所(照明をつけていない部屋など)で撮影する場合、高感度ノイズと呼ばれるノイズが、カメラにより生成されるフレーム画像に表われる。   A signal output from an image sensor such as a CCD or CMOS included in the camera includes noise in addition to a signal corresponding to the amount of light of the subject. When shooting in a relatively dark place (such as a room without lighting), noise called high-sensitivity noise appears in a frame image generated by the camera.

撮影場所が暗くなるにつれて、カメラの撮像素子に入射する光量は低下する。この場合、カメラは、撮像素子から出力される信号のゲインを上げる。被写体からの光による信号とともに、ノイズにも同じゲインがかかるため、増幅されたノイズがフレーム画像に表われる。つまり、高感度ノイズは、ゲインをあげることによってフレーム画像に表われるノイズである。高感度ノイズは、ランダムな位置に、ランダムな色で現れるため、フレーム画像中の肌色が他の色に変化したり、他の色が肌色に変化したりすることがある。   As the shooting location becomes darker, the amount of light incident on the image sensor of the camera decreases. In this case, the camera increases the gain of the signal output from the image sensor. Since the same gain is applied to the noise as well as the signal from the light from the subject, the amplified noise appears in the frame image. That is, high sensitivity noise is noise that appears in a frame image by increasing the gain. Since the high-sensitivity noise appears at random positions in random colors, the skin color in the frame image may change to another color, or the other color may change to skin color.

このように、比較的暗い場所で撮影したフレーム画像から人物の特定の部位を検出する場合、高感度ノイズの影響が大きくなるため、フレーム画像内の肌色領域を安定的に検出することができない。この結果、人物の特定の部位をフレーム画像から検出する精度が低下する。   As described above, when a specific part of a person is detected from a frame image taken in a relatively dark place, the influence of high-sensitivity noise becomes large, so that the skin color area in the frame image cannot be detected stably. As a result, the accuracy of detecting a specific part of the person from the frame image decreases.

本発明は、上記問題点に鑑み、撮影場所の明るさに影響を受けることなく、人物の特定の部位を検出する精度を向上することができる人体検出装置を提供することを課題とする。   In view of the above problems, an object of the present invention is to provide a human body detection device that can improve the accuracy of detecting a specific part of a person without being affected by the brightness of the shooting location.

上記課題を解決するため、請求項1記載の発明は、人体検出装置であって、動画像を構成するフレーム画像が入力された場合、前記フレーム画像において肌色を有すると推定される領域を特定する肌色領域推定部と、前記肌色領域推定部により特定された領域に対応する肌色マッピング画像の画素の画素値に所定の加算値を加算して前記肌色マッピング画像を更新するマッピング部と、前記マッピング部により更新された肌色マッピング画像の各画素をしきい値と比較し、前記肌色マッピング画像において前記しきい値よりも大きい画素値を有する画素の分布を示す肌色判定画像を生成する比較部と、前記比較部により生成された肌色判定画像から人体の所定の部位を検出する画像認識部と、を備える。   In order to solve the above-described problem, the invention according to claim 1 is a human body detection device, and when a frame image constituting a moving image is input, an area estimated to have skin color in the frame image is specified. A skin color region estimation unit, a mapping unit that updates the skin color mapping image by adding a predetermined addition value to a pixel value of a pixel of the skin color mapping image corresponding to the region specified by the skin color region estimation unit, and the mapping unit Comparing each pixel of the skin color mapping image updated by the threshold value, and generating a skin color determination image indicating a distribution of pixels having pixel values larger than the threshold value in the skin color mapping image; An image recognition unit that detects a predetermined part of the human body from the skin color determination image generated by the comparison unit.

請求項2記載の発明は、請求項1に記載の人体検出装置であって、前記マッピング部は、前記肌色領域推定部により特定された領域に対応しない肌色マッピング画像の画素の画素値から所定の減算値を減算する。   The invention according to claim 2 is the human body detection device according to claim 1, wherein the mapping unit is a predetermined value based on pixel values of pixels of the skin color mapping image that do not correspond to the region specified by the skin color region estimation unit. Subtract the subtraction value.

請求項3記載の発明は、請求項2に記載の人体検出装置であって、前記マッピング部は、前記更新された肌色マッピング画像の画素の画素値が所定の上限値を超えた場合、前記更新された肌色マッピング画像の画素の画素値を前記上限値に設定する。   Invention of Claim 3 is a human body detection apparatus of Claim 2, Comprising: The said mapping part is the said update, when the pixel value of the pixel of the said updated skin color mapping image exceeds a predetermined | prescribed upper limit value The pixel value of the pixel of the made skin color mapping image is set to the upper limit value.

請求項4記載の発明は、請求項2又は3に記載の人体検出装置であって、前記マッピング部は、前記肌色マッピング画像の画素の画素値が所定の下限値を下回った場合、前記更新された肌色マッピング画像の画素の画素値を前記下限値に設定する。   Invention of Claim 4 is a human body detection apparatus of Claim 2 or 3, Comprising: The said mapping part is updated when the pixel value of the pixel of the said skin color mapping image is less than a predetermined | prescribed lower limit. The pixel value of the pixel of the skin color mapping image is set to the lower limit value.

請求項5記載の発明は、請求項2ないし4のいずれかに記載の人体検出装置であって、さらに、前記フレーム画像と、前記フレーム画像よりも前に入力された過去画像とを用いて、前記フレーム画像から動きベクトルを検出する動きベクトル検出部、を備え、前記マッピング部は、前記動きベクトル検出部により検出された動きベクトルの終点に対応する前記マッピング画像の画素の画素値に対して、前記所定の加算値よりも大きい調整加算値を加算し、前記検出された動きベクトルの起点に対応する前記マッピング画像の画素の画素値から、前記所定の減算値よりも大きい調整減算値を減算する。   Invention of Claim 5 is a human body detection apparatus in any one of Claim 2 thru | or 4, Furthermore, using the said frame image and the past image input before the said frame image, A motion vector detection unit that detects a motion vector from the frame image, and the mapping unit performs pixel values of pixels of the mapping image corresponding to an end point of the motion vector detected by the motion vector detection unit, An adjustment addition value larger than the predetermined addition value is added, and an adjustment subtraction value larger than the predetermined subtraction value is subtracted from the pixel value of the pixel of the mapping image corresponding to the detected motion vector starting point. .

請求項6記載の発明は、請求項5に記載の人体検出装置であって、前記マッピング部は、前記動きベクトルが大きくなるにつれて、前記調整加算値及び前記調整減算値を増加させる。   A sixth aspect of the present invention is the human body detection device according to the fifth aspect, wherein the mapping unit increases the adjustment addition value and the adjustment subtraction value as the motion vector increases.

請求項7記載の発明は、請求項1ないし6のいずれかに記載の人体検出装置であって、前記肌色領域推定部は、被写体を撮像して前記動画像を生成するカメラにおいて調整されたホワイトバランスに基づいて、前記肌色を有すると推定される領域を検出するための条件を調整する。   A seventh aspect of the present invention is the human body detection device according to any one of the first to sixth aspects, wherein the skin color area estimation unit adjusts white in a camera that images a subject and generates the moving image. Based on the balance, a condition for detecting the region estimated to have the skin color is adjusted.

請求項8記載の発明は、人体検出装置に搭載されたコンピュータを、動画像を構成するフレーム画像が入力された場合、前記フレーム画像において肌色を有すると推定される領域を特定する肌色領域推定部、前記肌色領域推定部により特定された領域に対応する肌色マッピング画像の画素の画素値に所定の加算値を加算して前記肌色マッピング画像を更新するマッピング部、前記マッピング部により更新された肌色マッピング画像の各画素をしきい値と比較し、前記肌色マッピング画像において前記しきい値よりも大きい画素値を有する画素の分布を示す肌色判定画像を生成する比較部、前記比較部により生成された肌色判定画像から人体の所定の部位を検出する画像認識部、として機能させるための人体検出プログラムである。   The invention according to claim 8 is a skin color region estimation unit that specifies a region estimated to have a skin color in the frame image when a frame image constituting a moving image is input to the computer mounted on the human body detection device. A mapping unit for updating the skin color mapping image by adding a predetermined addition value to a pixel value of a pixel of the skin color mapping image corresponding to the region specified by the skin color region estimation unit, and the skin color mapping updated by the mapping unit A comparison unit that compares each pixel of the image with a threshold value and generates a skin color determination image indicating a distribution of pixels having a pixel value larger than the threshold value in the skin color mapping image, and the skin color generated by the comparison unit It is a human body detection program for functioning as an image recognition unit that detects a predetermined part of a human body from a determination image.

本発明に係る人体検出装置は、フレーム画像内の肌色を有すると推定される領域を特定し、特定した領域に対応する肌色マッピング画像の画素の画素値に所定の加算値を加算する。人体検出装置は、しきい値よりも大きい画素値を有する肌色マッピング画像の画素の分布を示す肌色判定画像を生成し、生成した肌色マッピング画像を用いて人体の所定の部位を検出する。これにより、人体の所定の部位を検出する際に、撮影場所の明るさに応じて発生するノイズの影響を抑制することができ、人物の特定の部位を検出する精度を向上することができる。   The human body detection device according to the present invention specifies a region estimated to have a skin color in the frame image, and adds a predetermined addition value to the pixel value of the pixel of the skin color mapping image corresponding to the specified region. The human body detection device generates a skin color determination image indicating a distribution of pixels of a skin color mapping image having a pixel value larger than a threshold value, and detects a predetermined part of the human body using the generated skin color mapping image. Thereby, when detecting a predetermined part of the human body, the influence of noise generated according to the brightness of the shooting location can be suppressed, and the accuracy of detecting a specific part of the person can be improved.

本発明の第1の実施の形態に係る人体検出装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the human body detection apparatus which concerns on the 1st Embodiment of this invention. 図1に示す色空間変換部により生成されたHSVフレーム画像の一部領域を示す図である。It is a figure which shows the partial area | region of the HSV frame image produced | generated by the color space conversion part shown in FIG. 図1に示す肌色領域推定部により生成される肌色推定画像の一部領域を示す図である。It is a figure which shows the partial area | region of the skin color estimation image produced | generated by the skin color area estimation part shown in FIG. 図1に示すマッピング部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the mapping part shown in FIG. 図3に示す肌色推定画像に基づいて更新される前の肌色マッピング画像を示す図である。It is a figure which shows the skin color mapping image before updating based on the skin color estimation image shown in FIG. 図3に示す肌色推定画像に基づいて更新された後の肌色マッピング画像を示す図である。It is a figure which shows the skin color mapping image after updating based on the skin color estimation image shown in FIG. 図6に示す肌色マッピング画像に基づいて生成された肌色判定画像を示す図である。It is a figure which shows the skin color determination image produced | generated based on the skin color mapping image shown in FIG. 本発明の第2の実施の形態に係る人体検出装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the human body detection apparatus which concerns on the 2nd Embodiment of this invention. 図8に示す動きベクトル検出部により検出される動きベクトルの一例を示す図である。It is a figure which shows an example of the motion vector detected by the motion vector detection part shown in FIG. 図8に示すマッピング部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the mapping part shown in FIG. 図8に示すマッピング部に設定される調整テーブルを示す図である。It is a figure which shows the adjustment table set to the mapping part shown in FIG.

以下、図面を参照しつつ、本発明の実施の形態を詳しく説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

{第1の実施の形態}
<1.人体検出装置100の構成>
図1は、本発明の第1の実施の形態に係る人体検出装置100の構成を示す機能ブロック図である。図1に示すように、カメラ200は、被写体を撮像して、動画像を出力する。動画像は、複数のフレーム画像20,20,・・・により構成される。人体検出装置100は、カメラ200により撮像されたフレーム画像20,20,・・・を順次入力し、入力したフレーム画像20から人間の手のひらを検出する。
{First embodiment}
<1. Configuration of Human Body Detection Device 100>
FIG. 1 is a functional block diagram showing the configuration of the human body detection device 100 according to the first embodiment of the present invention. As shown in FIG. 1, the camera 200 images a subject and outputs a moving image. The moving image is composed of a plurality of frame images 20, 20,. The human body detection apparatus 100 sequentially inputs the frame images 20, 20,... Captured by the camera 200, and detects a human palm from the input frame image 20.

人体検出装置100は、色空間変換部1と、肌色領域推定部2と、マッピング部3と、比較部4と、画像認識部5とを備える。   The human body detection device 100 includes a color space conversion unit 1, a skin color area estimation unit 2, a mapping unit 3, a comparison unit 4, and an image recognition unit 5.

色空間変換部1は、物体検出装置1にフレーム画像20が新たに入力された場合、入力されたフレーム画像20の色空間を変換する。以下、色空間変換部1において色空間変換されるフレーム画像20を、「カレントフレーム画像」と呼ぶ。カレントフレーム画像は、RGB色空間を有する。色空間変換部1は、カレントフレーム画像の色空間をHSV色空間に変換して、HSVフレーム画像30を生成する。   When the frame image 20 is newly input to the object detection apparatus 1, the color space conversion unit 1 converts the color space of the input frame image 20. Hereinafter, the frame image 20 subjected to the color space conversion in the color space conversion unit 1 is referred to as a “current frame image”. The current frame image has an RGB color space. The color space conversion unit 1 converts the color space of the current frame image into an HSV color space, and generates an HSV frame image 30.

肌色領域推定部2は、色空間変換部1により生成されたHSVフレーム画像30を入力し、入力したHSVフレーム画像30を用いて肌色推定画像40を生成する。肌色領域推定部2は、生成した肌色推定画像40をマッピング部3に出力する。肌色推定画像40は、2値化画像であり、HSVフレーム画像30の各画素と1対1に対応する画素を有する。肌色領域推定部2は、HSVフレーム画像30の各画素の色相値(H成分値)を参照して、HSVフレーム画像30の各画素が肌色を有しているか否かを推定する。肌色推定画像40の画素がHSVフレーム画像30において肌色を有すると推定される画素に対応する場合、肌色推定画像40の画素の画素値は、「1」に設定される。肌色推定画像40の画素がHSVフレーム画像30において肌色以外の色を有する画素に対応する場合、肌色推定画像40の画素の画素値は、「0」に設定される。   The skin color region estimation unit 2 receives the HSV frame image 30 generated by the color space conversion unit 1 and generates a skin color estimation image 40 using the input HSV frame image 30. The skin color region estimation unit 2 outputs the generated skin color estimation image 40 to the mapping unit 3. The skin color estimation image 40 is a binarized image, and has pixels corresponding to each pixel of the HSV frame image 30 on a one-to-one basis. The skin color region estimation unit 2 refers to the hue value (H component value) of each pixel of the HSV frame image 30 to estimate whether each pixel of the HSV frame image 30 has a skin color. When the pixel of the skin color estimation image 40 corresponds to the pixel estimated to have a skin color in the HSV frame image 30, the pixel value of the pixel of the skin color estimation image 40 is set to “1”. When the pixel of the skin color estimation image 40 corresponds to a pixel having a color other than the skin color in the HSV frame image 30, the pixel value of the pixel of the skin color estimation image 40 is set to “0”.

マッピング部3は、肌色領域推定部2により生成された肌色推定画像40を用いて、肌色マッピング画像50の各画素の画素値を更新する。肌色マッピング画像50は、0〜255の256階調の画像である。肌色マッピング画像50の各画素は、肌色推定画像40の各画素と1対1に対応する。つまり、フレーム画像20が人体検出装置100に新たに入力された場合、肌色マッピング画像50の各画素の画素値は、新たに入力されたフレーム画像20の各画素の画素値に基づいて更新される。   The mapping unit 3 updates the pixel value of each pixel of the skin color mapping image 50 using the skin color estimation image 40 generated by the skin color region estimation unit 2. The skin color mapping image 50 is an image of 256 gradations from 0 to 255. Each pixel of the skin color mapping image 50 corresponds to each pixel of the skin color estimation image 40 on a one-to-one basis. That is, when the frame image 20 is newly input to the human body detection device 100, the pixel value of each pixel of the skin color mapping image 50 is updated based on the pixel value of each pixel of the newly input frame image 20. .

具体的には、マッピング部3は、肌色マッピング画像50における処理対象の画素(注目画素)を選択し、選択した注目画素に対応する肌色推定画像40の画素が画素値「1」を有するか否かを判断する。選択した注目画素に対応する肌色推定画像40の画素が画素値「1」を有する場合、マッピング部3は、注目画素の画素値に対して、予め設定された肌色更新値を加算する。一方、マッピング部3は、注目画素に対応する肌色推定画像40の画素が画素値「0」を有する場合、注目画素の画素値から、予め設定された非肌色更新値を減算する。   Specifically, the mapping unit 3 selects a pixel to be processed (target pixel) in the skin color mapping image 50, and whether or not the pixel of the skin color estimation image 40 corresponding to the selected target pixel has a pixel value “1”. Determine whether. When the pixel of the skin color estimation image 40 corresponding to the selected target pixel has a pixel value “1”, the mapping unit 3 adds a preset skin color update value to the pixel value of the target pixel. On the other hand, when the pixel of the skin color estimation image 40 corresponding to the target pixel has the pixel value “0”, the mapping unit 3 subtracts a preset non-skin color update value from the pixel value of the target pixel.

比較部4は、肌色マッピング画像50の各画素の画素値を予め設定されたしきい値と比較し、その比較結果に基づいて肌色判定画像60を生成する。具体的には、比較部4は、肌色マッピング画像50においてしきい値よりも大きい画素値を有する画素を、カレントフレーム画像における肌色画素と判断する。肌色画素に対応する肌色判定画像60の画素の画素値は、「1」に設定される。一方、比較部4は、肌色マッピング画像50においてしきい値以下の画素値を有する画素をカレントフレーム画像における非肌色画素と判定する。非肌色画素に対応する肌色判定画像60の画素の画素値は、「0」に設定される。   The comparison unit 4 compares the pixel value of each pixel of the skin color mapping image 50 with a preset threshold value, and generates a skin color determination image 60 based on the comparison result. Specifically, the comparison unit 4 determines a pixel having a pixel value larger than the threshold value in the skin color mapping image 50 as a skin color pixel in the current frame image. The pixel value of the pixel of the skin color determination image 60 corresponding to the skin color pixel is set to “1”. On the other hand, the comparison unit 4 determines a pixel having a pixel value equal to or smaller than the threshold value in the skin color mapping image 50 as a non-skin color pixel in the current frame image. The pixel value of the pixel of the skin color determination image 60 corresponding to the non-skin color pixel is set to “0”.

画像認識部5は、手のひらの形状の特徴が記録された特徴データ(図示省略)を用いて、比較部4により生成された肌色判定画像60から手のひらを検出する。画像認識部5は、肌色判定画像60から検出された手のひらの位置及び形状を示す検出結果データ70を生成する。検出結果データ70は、カレントフレーム画像における手のひらの検出結果として人体検出装置100から出力される。   The image recognition unit 5 detects the palm from the skin color determination image 60 generated by the comparison unit 4 using feature data (not shown) in which the feature of the shape of the palm is recorded. The image recognition unit 5 generates detection result data 70 indicating the position and shape of the palm detected from the skin color determination image 60. The detection result data 70 is output from the human body detection device 100 as a palm detection result in the current frame image.

検出結果データ70は、フレーム画像20が1つ入力されるたびに生成される。このため、検出結果データ70を利用することにより、カメラ200の前にかざされた手のひらの位置をリアルタイムで把握することが可能となる。   The detection result data 70 is generated every time one frame image 20 is input. Therefore, by using the detection result data 70, the position of the palm held in front of the camera 200 can be grasped in real time.

<2.人体検出装置100の動作>
以下、フレーム画像20から手のひらを検出する人体検出装置100の動作について詳しく説明する。
<2. Operation of Human Body Detection Device 100>
Hereinafter, the operation of the human body detection device 100 that detects the palm from the frame image 20 will be described in detail.

(2.1.初期化)
人体検出装置100は、カメラ200からの動画像の入力を開始する前に、肌色マッピング画像50を初期化する。具体的には、マッピング部3が、肌色マッピング画像50の全画素の画素値を「0」に設定する。
(2.1. Initialization)
The human body detection device 100 initializes the skin color mapping image 50 before starting the input of the moving image from the camera 200. Specifically, the mapping unit 3 sets the pixel values of all the pixels of the skin color mapping image 50 to “0”.

(2.2.色空間変換)
初期化処理の後に、人体検出装置100は、カメラ200から動画像の入力を開始する。カメラ200は、動画像を構成するフレーム画像20を1つずつ出力する。色空間変換部1は、カメラ200から出力されるフレーム画像20を入力し、入力したフレーム画像20の各画素の画素値をRGB形式からHSV形式に変換してHSVフレーム画像30を生成する。
(2.2. Color space conversion)
After the initialization process, the human body detection device 100 starts to input a moving image from the camera 200. The camera 200 outputs the frame images 20 constituting the moving image one by one. The color space conversion unit 1 receives the frame image 20 output from the camera 200, converts the pixel value of each pixel of the input frame image 20 from the RGB format to the HSV format, and generates the HSV frame image 30.

図2は、色空間変換部1により生成されたHSVフレーム画像30の一部領域を示す図である。図2は、HSVフレーム画像30の左上頂点を基準にして5行×9列の画素を示し、それ以外の画素の表示を省略している。HSVフレーム画像30の各画素を示す記号Pの添え字のうち、1桁目はHSVフレーム画像30における画素の行番号を示し、2桁目はHSVフレーム画像30における画素の列番号を示している。図2において、記号Hにより示される数値は、HSVフレーム画像30の各画素の色相値(H成分値)である。なお、他の図面における画素配列の表記方法も上記と同様である。   FIG. 2 is a diagram illustrating a partial region of the HSV frame image 30 generated by the color space conversion unit 1. FIG. 2 shows pixels of 5 rows × 9 columns with the upper left vertex of the HSV frame image 30 as a reference, and the display of other pixels is omitted. Of the subscripts of the symbol P indicating each pixel of the HSV frame image 30, the first digit indicates the row number of the pixel in the HSV frame image 30, and the second digit indicates the column number of the pixel in the HSV frame image 30. . In FIG. 2, the numerical value indicated by the symbol H is the hue value (H component value) of each pixel of the HSV frame image 30. In addition, the notation method of the pixel arrangement in other drawings is the same as the above.

(2.3.肌色領域の推定)
肌色領域推定部2は、色空間変換部1から出力されるHSVフレーム画像30を入力する。肌色領域推定部2は、入力したHSVフレーム画像30の中から肌色の領域を画素単位で推定し、推定した結果に基づいて肌色推定画像40を生成する。1つのフレーム画像20につき1つの肌色推定画像40が生成される。
(2.3. Estimation of skin color region)
The skin color area estimation unit 2 receives the HSV frame image 30 output from the color space conversion unit 1. The skin color region estimation unit 2 estimates a skin color region from the input HSV frame image 30 in units of pixels, and generates a skin color estimation image 40 based on the estimation result. One skin color estimation image 40 is generated for each frame image 20.

具体的には、肌色領域推定部2は、HSVフレーム画像30が入力された場合、肌色推定画像40の各画素の画素値を「0」に初期化する。肌色推定画像40は、2階調の画像データであり、肌色推定画像40の各画素は、HSVフレーム画像30の各画素に1対1に対応する。肌色推定画像40の初期化は、肌色マッピング画像50の初期化と異なり、フレーム画像20の入力をトリガとして実行される。   Specifically, when the HSV frame image 30 is input, the skin color area estimation unit 2 initializes the pixel value of each pixel of the skin color estimation image 40 to “0”. The skin color estimation image 40 is image data of two gradations, and each pixel of the skin color estimation image 40 corresponds to each pixel of the HSV frame image 30 on a one-to-one basis. Unlike the initialization of the skin color mapping image 50, the initialization of the skin color estimation image 40 is executed using the input of the frame image 20 as a trigger.

肌色領域推定部2は、HSVフレーム画像30から画素を1つ選択する。例えば、肌色領域推定部2は、図2に示すHSVフレーム画像30の画素のうち、画素P02を選択する。   The skin color area estimation unit 2 selects one pixel from the HSV frame image 30. For example, the skin color area estimation unit 2 selects the pixel P02 from the pixels of the HSV frame image 30 shown in FIG.

肌色領域推定部2は、選択した画素P02の色相値が予め設定された識別範囲内であるか否かを判断する。識別範囲は、例えば、色相値が−45°以上45°以下である。画素P02の色相値は42であり、識別範囲内である。肌色領域推定部2は、画素P02が肌色を有すると推定し、画素P02に対応する肌色推定画像40の画素の画素値を「0」から「1」に変更する。   The skin color area estimation unit 2 determines whether or not the hue value of the selected pixel P02 is within a preset identification range. The identification range is, for example, a hue value of −45 ° to 45 °. The hue value of the pixel P02 is 42, which is within the identification range. The skin color area estimation unit 2 estimates that the pixel P02 has a skin color, and changes the pixel value of the pixel of the skin color estimation image 40 corresponding to the pixel P02 from “0” to “1”.

図3は、肌色推定画像40の一部領域の画素を示す図である。図3に示す画素のうち、ハッチングで示された画素は、画素値「1」を有しており、対応するHSVフレーム画像30の画素が肌色を有すると推定されたことを示している。上述のように、画素P02は肌色を有すると推定されたため、画素P02に対応する肌色推定画像40の画素E02は、ハッチングで表示される。   FIG. 3 is a diagram illustrating pixels in a partial region of the skin color estimation image 40. Among the pixels shown in FIG. 3, a pixel indicated by hatching has a pixel value “1”, which indicates that the corresponding pixel of the HSV frame image 30 is estimated to have a flesh color. As described above, since the pixel P02 is estimated to have a skin color, the pixel E02 of the skin color estimation image 40 corresponding to the pixel P02 is displayed by hatching.

その後、肌色領域推定部2は、HSVフレーム画像の各画素を選択する。肌色領域推定部2は、選択した画素が肌色を有すると推定できるか否かを判断し、選択した画素に対応する肌色推定画像40の画素の画素値を判断結果に応じて変更する。これにより、肌色推定画像40の画素のうち、HSVフレーム画像30において肌色を有すると推定された画素に対応する画素の画素値が「1」に変更される。   Thereafter, the skin color area estimation unit 2 selects each pixel of the HSV frame image. The skin color area estimation unit 2 determines whether the selected pixel can be estimated to have a skin color, and changes the pixel value of the pixel of the skin color estimation image 40 corresponding to the selected pixel according to the determination result. Thereby, the pixel value of the pixel corresponding to the pixel estimated to have the skin color in the HSV frame image 30 among the pixels of the skin color estimation image 40 is changed to “1”.

画素E13は、画素P13に対応するが、画素P13が肌色以外の色を有する(画素P13の色相値(H=54)が識別範囲外である)と推定されるため、ハッチングで表示されていない。画素E13の周囲の画素の大半が肌色を有すると推定された画素であることから、画素E13に対応するカレントフレーム画像の画素で、高感度ノイズが発生したと推測される。同様に、画素E17の周辺の画素の大半が肌色以外の画素であると推定されていることから、画素E17に対応するカレントフレーム画像の画素で、高感度ノイズが発生したと推測される。   The pixel E13 corresponds to the pixel P13, but is not displayed by hatching because the pixel P13 is estimated to have a color other than the skin color (the hue value (H = 54) of the pixel P13 is outside the identification range). . Since most of the pixels around the pixel E13 are pixels that are estimated to have skin color, it is estimated that high-sensitivity noise has occurred in the pixels of the current frame image corresponding to the pixel E13. Similarly, since most of the pixels around the pixel E17 are estimated to be pixels other than the skin color, it is estimated that high sensitivity noise has occurred in the pixel of the current frame image corresponding to the pixel E17.

このように、肌色領域推定部2は、HSVフレーム画像30の各画素の画素値を用いて、肌色推定画像40を生成し、生成した肌色推定画像40をマッピング部3に出力する。   In this way, the skin color area estimation unit 2 generates the skin color estimation image 40 using the pixel value of each pixel of the HSV frame image 30, and outputs the generated skin color estimation image 40 to the mapping unit 3.

(2.4.肌色マッピング画像50の更新)
マッピング部3は、肌色領域推定部2から肌色推定画像40を入力する。マッピング部3は、入力した肌色推定画像40の各画素の画素値に基づいて、肌色マッピング画像50の各画素の画素値を増減させることにより、肌色マッピング画像50を更新する。
(2.4. Update of skin color mapping image 50)
The mapping unit 3 inputs the skin color estimation image 40 from the skin color region estimation unit 2. The mapping unit 3 updates the skin color mapping image 50 by increasing or decreasing the pixel value of each pixel of the skin color mapping image 50 based on the pixel value of each pixel of the input skin color estimation image 40.

以下、図4〜図6を参照しながら、マッピング部3の動作について詳しく説明する。図4は、マッピング部3の動作を示すフローチャートである。図5は、図3に示す肌色推定画像40に基づいて更新される前の肌色マッピング画像50を示す。図6は、図3に示す肌色推定画像40に基づいて更新された肌色マッピング画像50を示す。   Hereinafter, the operation of the mapping unit 3 will be described in detail with reference to FIGS. 4 to 6. FIG. 4 is a flowchart showing the operation of the mapping unit 3. FIG. 5 shows a skin color mapping image 50 before being updated based on the skin color estimation image 40 shown in FIG. FIG. 6 shows a skin color mapping image 50 updated based on the skin color estimation image 40 shown in FIG.

マッピング部3は、肌色マッピング画像50の画素の中から、更新対象の画素(注目画素)を選択し、選択した注目画素に対して図4に示す処理を実行する。   The mapping unit 3 selects a pixel to be updated (target pixel) from the pixels of the skin color mapping image 50, and executes the process shown in FIG. 4 on the selected target pixel.

(画素値を増加させる場合)
肌色マッピング画像50の画素の画素値を増加させる例として、画素M02,M11が注目画素に選択される場合を説明する。
(When increasing the pixel value)
As an example of increasing the pixel value of the pixel of the skin color mapping image 50, a case where the pixels M02 and M11 are selected as the target pixel will be described.

マッピング部3は、画素M11を注目画素として選択し、画素M11に対応する肌色推定画像40の画素E11の画素値が「1」であるか否かを判断する(ステップS11)。図3において、画素E11はハッチングで示されているため、画素E11の画素値は「1」である(ステップS11においてYes)。マッピング部3は、画素M11(図5参照)の画素値に肌色更新値を加算する(ステップS12)。本実施の形態では、肌色更新値は、「50」であり、マッピング部3に予め設定されている。これにより、画素M11の画素値は、「100」から「150」に増加する。   The mapping unit 3 selects the pixel M11 as the target pixel, and determines whether or not the pixel value of the pixel E11 of the skin color estimation image 40 corresponding to the pixel M11 is “1” (step S11). In FIG. 3, since the pixel E11 is indicated by hatching, the pixel value of the pixel E11 is “1” (Yes in step S11). The mapping unit 3 adds the skin color update value to the pixel value of the pixel M11 (see FIG. 5) (step S12). In the present embodiment, the skin color update value is “50” and is set in the mapping unit 3 in advance. As a result, the pixel value of the pixel M11 increases from “100” to “150”.

マッピング部3は、加算後の画素M11の画素値が上限値を超えているか否かを判断する(ステップS13)。上限値は、「255」であり、マッピング部3に予め設定されている。更新された画素M11の画素値「150」は、上限値よりも小さいため(ステップS13においてNo)、マッピング部3は、画素M11の更新を終了する。   The mapping unit 3 determines whether or not the pixel value of the pixel M11 after the addition exceeds the upper limit value (Step S13). The upper limit value is “255” and is set in the mapping unit 3 in advance. Since the updated pixel value “150” of the pixel M11 is smaller than the upper limit value (No in step S13), the mapping unit 3 ends the update of the pixel M11.

画素M02が注目画素に選択された場合、マッピング部3は、画素M02に対応する肌色推定画像40の画素E02の画素値が「1」であるか否かを判断する(ステップS11)。図3において、画素E02がハッチングで示されているため、画素E02の画素値は、「1」である(ステップS11においてYes)。マッピング部3は、画素M02の画素値を「250」から「300」に増加させる(ステップS12)。しかし、更新後の画素M02の画素値「300」は上限値よりも大きいため(ステップS13においてYes)、マッピング部3は、画素M02の画素値を上限値「255」に再設定する(ステップS14)。肌色マッピング画像50の画素値に上限を設ける理由については後述する。   When the pixel M02 is selected as the target pixel, the mapping unit 3 determines whether or not the pixel value of the pixel E02 of the skin color estimation image 40 corresponding to the pixel M02 is “1” (step S11). In FIG. 3, since the pixel E02 is indicated by hatching, the pixel value of the pixel E02 is “1” (Yes in step S11). The mapping unit 3 increases the pixel value of the pixel M02 from “250” to “300” (step S12). However, since the updated pixel value “300” of the pixel M02 is larger than the upper limit value (Yes in step S13), the mapping unit 3 resets the pixel value of the pixel M02 to the upper limit value “255” (step S14). ). The reason why an upper limit is set for the pixel value of the skin color mapping image 50 will be described later.

(画素値を減少させる場合)
肌色マッピング画像50の画素の画素値を減少させる例として、画素M25,M37が注目画素に選択される場合を説明する。
(When decreasing the pixel value)
As an example of reducing the pixel value of the pixel of the skin color mapping image 50, a case where the pixels M25 and M37 are selected as the target pixel will be described.

画素M25が注目画素に選択された場合を説明する。画素M25に対応する肌色推定画像40の画素E25は、ハッチングで表されていない(図3参照)。画素E25は、図3において、白色で示されている。画素E25の画素値は、「0」であるため(ステップS11においてNo)。マッピング部3は、画素M25の画素値から非肌色更新値を減算する(ステップS15)。本実施の形態では、非肌色更新値は、「50」であり、マッピング部3に予め設定されている。これにより、画素M25の画素値は、「100」から「50」に減少する。   A case where the pixel M25 is selected as the target pixel will be described. The pixel E25 of the skin color estimation image 40 corresponding to the pixel M25 is not represented by hatching (see FIG. 3). The pixel E25 is shown in white in FIG. This is because the pixel value of the pixel E25 is “0” (No in step S11). The mapping unit 3 subtracts the non-skin color update value from the pixel value of the pixel M25 (step S15). In the present embodiment, the non-skin color update value is “50” and is set in the mapping unit 3 in advance. As a result, the pixel value of the pixel M25 decreases from “100” to “50”.

マッピング部3は、更新後の画素M25の画素値が肌色マッピング画像50の各画素の画素値の下限値「0」より小さいか否かを判断する(ステップS16)。更新後の画素M25の画素値「50」は下限値「0」よりも大きいため(ステップS16においてNo)、マッピング部3は、画素M25の更新を終了する。   The mapping unit 3 determines whether or not the pixel value of the updated pixel M25 is smaller than the lower limit value “0” of the pixel value of each pixel of the skin color mapping image 50 (step S16). Since the pixel value “50” of the updated pixel M25 is larger than the lower limit value “0” (No in step S16), the mapping unit 3 finishes updating the pixel M25.

画素M37が注目画素に選択された場合を説明する。画素M37に対応する肌色推定画像40の画素E37は、ハッチングで表されていない(図3参照)。図5に示すように、画素E37の画素値は、「0」であるため(ステップS11においてNo)、マッピング部3は、画素M37の画素値を「5」から「−45」に減少させる(ステップS15)。更新後の画素M37の画素値「−45」は下限値よりも小さいため(ステップS16においてYes)、マッピング部3は、画素M37の画素値を「0」に再設定し(ステップS17)、画素M37の更新を終了する。   A case where the pixel M37 is selected as the target pixel will be described. The pixel E37 of the skin color estimation image 40 corresponding to the pixel M37 is not represented by hatching (see FIG. 3). As shown in FIG. 5, since the pixel value of the pixel E37 is “0” (No in Step S11), the mapping unit 3 decreases the pixel value of the pixel M37 from “5” to “−45” ( Step S15). Since the pixel value “−45” of the updated pixel M37 is smaller than the lower limit value (Yes in step S16), the mapping unit 3 resets the pixel value of the pixel M37 to “0” (step S17), and the pixel The update of M37 is terminated.

このように、マッピング部3は、肌色マッピング画像50の各画素の画素値を、肌色推定画像40の各画素の画素値に基づいて更新する。マッピング部3は、更新された肌色マッピング画像50を比較部4へ出力する。   As described above, the mapping unit 3 updates the pixel value of each pixel of the skin color mapping image 50 based on the pixel value of each pixel of the skin color estimation image 40. The mapping unit 3 outputs the updated skin color mapping image 50 to the comparison unit 4.

その後、新たにフレーム画像20が人体検出装置100に入力された場合、マッピング部3は、新たに入力されたフレーム画像20から生成された肌色推定画像40を用いて、図6に示す肌色マッピング画像50の各画素の画素値を更新する。   Thereafter, when a new frame image 20 is input to the human body detection device 100, the mapping unit 3 uses the skin color estimation image 40 generated from the newly input frame image 20, and uses the skin color mapping image shown in FIG. The pixel value of each of the 50 pixels is updated.

(2.5.しきい値との比較)
比較部4は、フレーム画像20が人体検出装置100に入力された場合、肌色判定画像60の全画素の画素値を「0」に初期化する。肌色判定画像60において、画素値「0」は、肌色以外の色であることを示す。肌色判定画像60の各画素は、肌色マッピング画像50の各画素に1対1に対応する。
(2.5. Comparison with threshold)
When the frame image 20 is input to the human body detection device 100, the comparison unit 4 initializes the pixel values of all the pixels of the skin color determination image 60 to “0”. In the skin color determination image 60, the pixel value “0” indicates a color other than the skin color. Each pixel of the skin color determination image 60 corresponds to each pixel of the skin color mapping image 50 on a one-to-one basis.

比較部4は、マッピング部3から出力された肌色マッピング画像50を入力し、入力した肌色マッピング画像50の各画素の画素値を予め設定されたしきい値と比較する。しきい値は、例えば、「125」である。比較部4は、しきい値よりも大きい画素値を有する画素が肌色であると判定し、しきい値以下の画素値を有する画素が肌色ではないと判断する。そして、比較部4は、比較結果に応じて、肌色判定画像60の各画素の画素値を設定する。具体的には、比較部4は、肌色であると判定した画素の画素値を「0」から「1」に変更し、肌色でないと判定した画素の画素値を「0」のまま維持する。   The comparison unit 4 receives the skin color mapping image 50 output from the mapping unit 3, and compares the pixel value of each pixel of the input skin color mapping image 50 with a preset threshold value. The threshold value is “125”, for example. The comparison unit 4 determines that a pixel having a pixel value greater than the threshold value is flesh color, and determines that a pixel having a pixel value equal to or less than the threshold value is not flesh color. And the comparison part 4 sets the pixel value of each pixel of the skin color determination image 60 according to a comparison result. Specifically, the comparison unit 4 changes the pixel value of the pixel determined to be skin color from “0” to “1”, and maintains the pixel value of the pixel determined not to be skin color as “0”.

図7は、図6に示す肌色マッピング画像50を用いて、各画素の画素値を設定した肌色判定画像60を示す図である。図7において、肌色と判定された画素をハッチングで示し、肌色でないと判定した画素を白色で示す。例えば、図7に示す画素M02の画素値は「255」であり、しきい値「125」よりも大きい。比較部4は、図7に示すように、画素M02に対応する肌色判定画像60の画素D02の画素値を、肌色であることを示す「1」に変更する。図6に示す画素M22の画素値は「100」であり、しきい値「125」よりも小さい。比較部4は、図7に示すように、画素M22に対応する肌色判定画像60の画素D22の画素値を、肌色以外の色であることを示す「0」のまま維持する。   FIG. 7 is a diagram showing a skin color determination image 60 in which the pixel value of each pixel is set using the skin color mapping image 50 shown in FIG. In FIG. 7, pixels determined to be skin color are indicated by hatching, and pixels determined to be not skin color are indicated by white. For example, the pixel value of the pixel M02 illustrated in FIG. 7 is “255”, which is larger than the threshold value “125”. As illustrated in FIG. 7, the comparison unit 4 changes the pixel value of the pixel D02 of the skin color determination image 60 corresponding to the pixel M02 to “1” indicating the skin color. The pixel value of the pixel M22 illustrated in FIG. 6 is “100”, which is smaller than the threshold value “125”. As illustrated in FIG. 7, the comparison unit 4 maintains the pixel value of the pixel D22 of the skin color determination image 60 corresponding to the pixel M22 as “0” indicating that the color is other than the skin color.

このように、比較部4は、更新後の肌色マッピング画像50の各画素の画素値をしきい値と比較し、比較結果を肌色判定画像60の各画素の画素値に反映させる。比較部4は、比較結果を反映させた肌色判定画像60を画像認識部5に出力する。   As described above, the comparison unit 4 compares the pixel value of each pixel of the updated skin color mapping image 50 with the threshold value, and reflects the comparison result in the pixel value of each pixel of the skin color determination image 60. The comparison unit 4 outputs the skin color determination image 60 reflecting the comparison result to the image recognition unit 5.

(2.6.手のひらの検出)
画像認識部5は、比較部4から出力された肌色判定画像60を入力し、検出対象である手のひらの特徴が記録された特徴データを用いて、肌色判定画像60から手のひらを検出する。手のひらの検出には、パターンマッチングが用いられる。パターンマッチングのアルゴリズムは、例えば、ニューラルネットワークである。
(2.6. Detection of palm)
The image recognition unit 5 receives the skin color determination image 60 output from the comparison unit 4, and detects the palm from the skin color determination image 60 using the feature data in which the feature of the palm that is the detection target is recorded. Pattern matching is used to detect the palm. The pattern matching algorithm is, for example, a neural network.

画像認識部5は、肌色判定画像60における手のひらの検出結果を示す検出結果データ70を生成し、生成した検出結果データ70を出力する。検出結果データ70は、例えば、肌色判定画像60において検出した手のひらの輪郭を示すデータである。   The image recognition unit 5 generates detection result data 70 indicating the detection result of the palm in the skin color determination image 60 and outputs the generated detection result data 70. The detection result data 70 is data indicating the contour of the palm detected in the skin color determination image 60, for example.

上述のように、人体検出装置100は、カレントフレーム画像から生成した肌色推定画像40を用いて肌色マッピング画像50を更新する。更新された肌色マッピング画像50は、肌色領域の出現状況を時間的に積分した画像である。人体検出装置100は、肌色マッピング画像50の各画素の画素値をしきい値と比較して、その比較結果に基づいて肌色判定画像60を生成する。つまり、人体検出装置100は、フレーム画像20の入力に応じて更新される肌色マッピング画像50を用いてこのフレーム画像20における肌色領域を判定することにより、肌色領域の誤判定を防ぐことができる。   As described above, the human body detection device 100 updates the skin color mapping image 50 using the skin color estimation image 40 generated from the current frame image. The updated skin color mapping image 50 is an image obtained by temporally integrating the appearance state of the skin color region. The human body detection device 100 compares the pixel value of each pixel of the skin color mapping image 50 with a threshold value, and generates a skin color determination image 60 based on the comparison result. That is, the human body detection device 100 can prevent the erroneous determination of the skin color region by determining the skin color region in the frame image 20 using the skin color mapping image 50 that is updated according to the input of the frame image 20.

比較的暗い場所(照明を落とした部屋など)において、人物がカメラ200の前に手をかざした場合、カメラ200により生成されるフレーム画像20は、高感度ノイズの影響を受ける。高感度ノイズは、ランダムな位置、ランダムなタイミングで発生する。例えば、ある画素が、肌色を有すると推定された画素として検出されるべきであるにも関わらず、高感度ノイズにより、肌色以外の色を有する画素として検出される。あるいは、ある画素が、肌色以外の色を有する画素として検出されるべきであるにも関わらず、高感度ノイズにより、肌色を有すると推定される画素として検出される場合がある。高感度ノイズが発生する環境下で、カレントフレーム画像のみを用いて肌色領域を検出した場合、肌色領域を時間的に安定して検出することができない。   When a person holds his / her hand in front of the camera 200 in a relatively dark place (such as a room where lighting is reduced), the frame image 20 generated by the camera 200 is affected by high-sensitivity noise. High-sensitivity noise occurs at random positions and random timing. For example, although a certain pixel should be detected as a pixel estimated to have skin color, it is detected as a pixel having a color other than the skin color due to high sensitivity noise. Alternatively, although a certain pixel should be detected as a pixel having a color other than the skin color, it may be detected as a pixel estimated to have a skin color due to high sensitivity noise. When a skin color area is detected using only the current frame image in an environment where high-sensitivity noise occurs, the skin color area cannot be detected stably in terms of time.

しかし、高感度ノイズが、時間的に連続する複数のフレーム画像にわたって同じ位置の画素に発生する可能性は低い。このため、人体検出装置100は、フレーム画像20から生成した肌色推定画像40を用いて、肌色マッピング画像50の各画素の画素値を増減して肌色マッピング画像50を更新する。肌色マッピング画像50は、カレントフレーム画像と、過去のフレーム画像とにおける肌色の出現状況を記録した画像である。この結果、人体検出装置100は、動画像の入力を開始してから数フレーム分の肌色領域の推定結果が肌色マッピング画像50に反映されるまで、高感度ノイズの影響が現れるが、その後、高感度ノイズの影響が抑制されるため、肌色領域を安定的に検出することができる。   However, it is unlikely that high-sensitivity noise occurs in pixels at the same position over a plurality of temporally continuous frame images. For this reason, the human body detection apparatus 100 updates the skin color mapping image 50 by increasing or decreasing the pixel value of each pixel of the skin color mapping image 50 using the skin color estimation image 40 generated from the frame image 20. The skin color mapping image 50 is an image in which the appearance state of the skin color in the current frame image and the past frame image is recorded. As a result, the human body detection apparatus 100 is affected by high-sensitivity noise until the estimation result of the skin color area for several frames is reflected in the skin color mapping image 50 after starting the input of the moving image. Since the influence of the sensitivity noise is suppressed, the skin color region can be detected stably.

また、人体検出装置100は、フレーム画像20が高感度ノイズを含むか否かに関わらず、肌色マッピング画像50の各画素を更新する。人体検出装置100は、高感度ノイズが発生しない撮影環境で撮影されたフレーム画像20から、肌色判定画像60を生成することができる。従って、人体検出装置100は、撮影環境の明るさに依存せずに、人体の特定の部位を高精度で検出することができる。   Further, the human body detection device 100 updates each pixel of the skin color mapping image 50 regardless of whether or not the frame image 20 includes high sensitivity noise. The human body detection device 100 can generate the skin color determination image 60 from the frame image 20 captured in an imaging environment where high sensitivity noise does not occur. Therefore, the human body detection device 100 can detect a specific part of the human body with high accuracy without depending on the brightness of the imaging environment.

例えば、図3において、肌色推定画像40の画素E13は、肌色以外の色を有する画素として示されている。しかし、画素E13の周囲の画素が肌色を有すると推定された画素であることから、画素13の色は、肌色であったが、高感度ノイズの発生により肌色以外の色に変化したと推測される。画素E13に対応する肌色判定画像60の画素D13は、肌色を有していると判定されており、高感度ノイズの影響が抑制されている。   For example, in FIG. 3, the pixel E <b> 13 of the skin color estimation image 40 is shown as a pixel having a color other than the skin color. However, since the pixels around the pixel E13 are pixels that are estimated to have a skin color, the color of the pixel 13 is a skin color, but it is estimated that the color has changed to a color other than the skin color due to the occurrence of high-sensitivity noise. The The pixel D13 of the skin color determination image 60 corresponding to the pixel E13 is determined to have a skin color, and the influence of high sensitivity noise is suppressed.

また、図3において、肌色推定画像40の画素E17は、肌色を有すると推定された画素として示されている。しかし、手のひらに対応する肌色領域は、空間的に連続する複数の画素により構成されることから、画素E17は、高感度ノイズにより肌色を有するようになったと考えられる。画素E17に対応する肌色判定画像60の画素D17は、肌色以外の色を有していると判定されており、上記と同様に、高感度ノイズの影響が抑制されている。このように、人体検出装置100では、カレントフレーム画像20における肌色領域の判定精度が向上していることがわかる。   In FIG. 3, the pixel E <b> 17 of the skin color estimation image 40 is shown as a pixel estimated to have a skin color. However, since the skin color area corresponding to the palm is composed of a plurality of spatially continuous pixels, it is considered that the pixel E17 has a skin color due to high sensitivity noise. The pixel D17 of the skin color determination image 60 corresponding to the pixel E17 is determined to have a color other than the skin color, and the influence of high sensitivity noise is suppressed as described above. Thus, in the human body detection device 100, it can be seen that the determination accuracy of the skin color region in the current frame image 20 is improved.

次に、肌色マッピング画像50において、画素値の上限及び下限を設ける理由について説明する。上限及び下限は、カレントフレーム画像よりも過去に入力されたフレーム画像20における肌色の検出結果の影響を小さくするために設けられる。   Next, the reason why the upper and lower pixel values are provided in the skin color mapping image 50 will be described. The upper and lower limits are provided in order to reduce the influence of the skin color detection result in the frame image 20 input in the past than the current frame image.

肌色領域推定部2が、10個の連続するフレーム画像20において画素P11が肌色を有すると判断し、その後、5個の連続するフレーム画像20において画素P11が肌色以外の色を有すると判断した場合を説明する。   When the skin color region estimation unit 2 determines that the pixel P11 has a skin color in 10 consecutive frame images 20, and then determines that the pixel P11 has a color other than the skin color in 5 consecutive frame images 20 Will be explained.

上限を設けない場合、画素P11に対応する肌色マッピング画像50の画素M11の画素値は、「500」まで増加し、その後「250」まで低下する。直近の5個のフレーム画像において、画素P11が肌色を有していないにも関わらず、画素M11の画素値はしきい値を上回っている。つまり、上限を設けない場合、直近のフレーム画像20における肌色の検出結果が、肌色判定画像60の画素M11に反映されないことがある。   When no upper limit is provided, the pixel value of the pixel M11 of the skin color mapping image 50 corresponding to the pixel P11 increases to “500” and then decreases to “250”. In the latest five frame images, the pixel value of the pixel M11 exceeds the threshold value even though the pixel P11 has no skin color. That is, when no upper limit is provided, the skin color detection result in the latest frame image 20 may not be reflected on the pixel M11 of the skin color determination image 60.

一方、上限を設けた場合、画素M11の画素値は、「255」まで上昇し、その後「5」まで低下する。画素M11の画素値がしきい値を下回っているため、直近のフレーム画像20における肌色の検出結果を、肌色判定画像60の画素D11に反映させることができる。   On the other hand, when the upper limit is provided, the pixel value of the pixel M11 increases to “255” and then decreases to “5”. Since the pixel value of the pixel M11 is below the threshold value, the skin color detection result in the latest frame image 20 can be reflected in the pixel D11 of the skin color determination image 60.

肌色マッピング画像50の画素値の下限は、上限を設ける理由と同様の理由により設けられる。   The lower limit of the pixel value of the skin color mapping image 50 is provided for the same reason as that for providing the upper limit.

{第2の実施の形態}
<1.人体検出装置300の構成>
図8は、本発明の第2の実施の形態に係る人体検出装置300の構成を示す機能ブロック図である。図8に示すように、人体検出装置300は、動きベクトル検出部6をさらに備える点、マッピング部3に代えてマッピング部7を備える点が図1に示す人体検出装置100と異なる。以下、上記第1の実施の形態に係る人体検出装置100と異なる点を中心に、人体検出装置300について説明する。
{Second Embodiment}
<1. Configuration of Human Body Detection Device 300>
FIG. 8 is a functional block diagram showing the configuration of the human body detection device 300 according to the second embodiment of the present invention. As shown in FIG. 8, the human body detection device 300 is different from the human body detection device 100 shown in FIG. 1 in that it further includes a motion vector detection unit 6 and a mapping unit 7 instead of the mapping unit 3. Hereinafter, the human body detection device 300 will be described focusing on differences from the human body detection device 100 according to the first embodiment.

動きベクトル検出部6は、カレントフレーム画像と、カレントフレーム画像の直前に入力されたフレーム画像(前フレーム画像)とを用いて、カレントフレーム画像を構成する各マクロブロックの動きベクトルを検出する。動きベクトル検出部6は、検出した動きベクトルを記録したベクトル検出データ80を生成してマッピング部7に出力する。   The motion vector detection unit 6 detects a motion vector of each macroblock constituting the current frame image using the current frame image and a frame image (previous frame image) input immediately before the current frame image. The motion vector detection unit 6 generates vector detection data 80 in which the detected motion vector is recorded and outputs it to the mapping unit 7.

マッピング部7は、マッピング部3と同様に、肌色領域推定部2から入力した肌色推定画像40を用いて、肌色マッピング画像50の各画素の画素値を更新する。ただし、マッピング部7は、肌色マッピング画像50の各画素の画素値を更新する前に、更新に用いられる肌色更新値又は非肌色更新値を、ベクトル検出データ80を用いて調整する。マッピング部7は、肌色マッピング画像50の画素がベクトル検出データ80に記録された動きベクトルの始点領域又は終点領域内に位置する場合、肌色マッピング画像50の画素の画素値の更新に用いられる肌色更新値又は非肌色更新値を調整する。   Similar to the mapping unit 3, the mapping unit 7 updates the pixel value of each pixel of the skin color mapping image 50 using the skin color estimation image 40 input from the skin color region estimation unit 2. However, the mapping unit 7 uses the vector detection data 80 to adjust the skin color update value or the non-skin color update value used for the update before updating the pixel value of each pixel of the skin color mapping image 50. The mapping unit 7 updates the skin color used for updating the pixel value of the pixel of the skin color mapping image 50 when the pixel of the skin color mapping image 50 is located within the start point region or the end point region of the motion vector recorded in the vector detection data 80. Value or non-skin color update value is adjusted.

人体検出装置300は、カレントフレーム画像から検出された動きベクトルを考慮して、肌色マッピング画像50の各画素の画素値を更新する。検出対象の手のひらが移動する場合(人物が手のひらをカメラにかざしながら左右に振った場合など)であっても、人体検出装置300は、カレントフレーム画像における手のひらの位置を精度良く検出することが可能となる。   The human body detection device 300 updates the pixel value of each pixel of the skin color mapping image 50 in consideration of the motion vector detected from the current frame image. Even when the palm to be detected moves (for example, when a person shakes his / her hand from side to side while holding the palm over the camera), the human body detection device 300 can accurately detect the position of the palm in the current frame image. It becomes.

<2.人体検出装置300の動作>
以下、人体検出装置300の動作を詳しく説明する。人体検出装置300における色空間変換部1、肌色領域推定部2、比較部4及び画像認識部5の動作は、上記実施の形態と同じであるため、その説明を省略する。
<2. Operation of Human Body Detection Device 300>
Hereinafter, the operation of the human body detection device 300 will be described in detail. Since the operations of the color space conversion unit 1, the skin color region estimation unit 2, the comparison unit 4, and the image recognition unit 5 in the human body detection device 300 are the same as those in the above embodiment, description thereof is omitted.

(2.1.動きベクトルの検出)
人体検出装置300に入力されるフレーム画像20は、色空間変換部1及び動きベクトル検出部6に入力される。動きベクトル検出部6は、カレントフレーム画像と、前フレーム画像とを用いて、カレントフレーム画像20の各マクロブロックの動きベクトルを検出する。動きベクトルを検出するアルゴリズムは、例えば、オプティカルフロー、動画像符号化規格H.264で用いられている動きベクトルの検出方法などである。
(2.1. Detection of motion vector)
The frame image 20 input to the human body detection device 300 is input to the color space conversion unit 1 and the motion vector detection unit 6. The motion vector detection unit 6 detects a motion vector of each macroblock of the current frame image 20 using the current frame image and the previous frame image. The algorithm for detecting the motion vector is, for example, an optical flow, a video coding standard H.264, or the like. For example, a motion vector detection method used in H.264.

図9は、動きベクトル検出部6により検出された動きベクトルの一例を示す図である。図9において、動きベクトル81が、手のひらが左から右へ移動することに伴って検出される。領域21は、前フレーム画像における手のひらの位置を示し、領域22は、カレントフレーム画像における手のひらの位置を示す。なお、図9では、説明を簡単にするために1つの動きベクトル81のみを示しているが、実際には、手のひらの移動に伴って、複数の動きベクトルが検出される。以下の説明は、各動きベクトルで共通である。   FIG. 9 is a diagram illustrating an example of a motion vector detected by the motion vector detection unit 6. In FIG. 9, a motion vector 81 is detected as the palm moves from left to right. A region 21 indicates the position of the palm in the previous frame image, and a region 22 indicates the position of the palm in the current frame image. In FIG. 9, only one motion vector 81 is shown for simplicity of explanation, but actually, a plurality of motion vectors are detected as the palm moves. The following description is common to each motion vector.

動きベクトル81は、前フレーム画像からカレントフレーム画像にかけて、マクロブロック82内の画像がマクロブロック83に移動したことを示す。つまり、マクロブロック82は、動きベクトル81の始点領域に相当する。始点領域とは、動きベクトル81の始点を含むマクロブロックである。マクロブロック83は、動きベクトル81の終点領域に相当する。また、動きベクトル81の大きさは「8」である。終点領域とは、動きベクトル81の終点を含むマクロブロックである。   The motion vector 81 indicates that the image in the macro block 82 has moved to the macro block 83 from the previous frame image to the current frame image. That is, the macro block 82 corresponds to the starting point area of the motion vector 81. The start point area is a macro block including the start point of the motion vector 81. The macro block 83 corresponds to the end point area of the motion vector 81. The size of the motion vector 81 is “8”. The end point area is a macro block including the end point of the motion vector 81.

動きベクトル検出部6は、動きベクトル81の大きさ、始点領域及び終点領域を記録した動きベクトル検出データ80を生成して出力する。   The motion vector detection unit 6 generates and outputs motion vector detection data 80 in which the size of the motion vector 81, the start point region, and the end point region are recorded.

(2.2.肌色更新値及び非肌色更新値の調整)
次に、マッピング部7の動作を説明する。マッピング部7は、肌色領域推定部2から肌色推定画像40を入力し、動きベクトル検出部6からベクトル検出データ80を入力する。マッピング部7は、入力した肌色推定画像40及びベクトル検出データ80を用いて、肌色マッピング画像50の各画素の画素値を更新する。
(2.2. Adjustment of skin color update value and non-skin color update value)
Next, the operation of the mapping unit 7 will be described. The mapping unit 7 receives the skin color estimation image 40 from the skin color region estimation unit 2 and the vector detection data 80 from the motion vector detection unit 6. The mapping unit 7 updates the pixel value of each pixel of the skin color mapping image 50 using the input skin color estimation image 40 and the vector detection data 80.

図10は、マッピング部7の動作を示すフローチャートである。マッピング部7は、肌色マッピング画像50の画素の中から、更新対象の画素(注目画素)を選択する。マッピング部7は、肌色更新値及び非肌色初期値の各々を初期化した上で、選択した注目画素に対して図10に示す処理を実行する。以下、図9に示す画素Mbが注目画素として選択された場合を説明する。   FIG. 10 is a flowchart showing the operation of the mapping unit 7. The mapping unit 7 selects a pixel to be updated (target pixel) from the pixels of the skin color mapping image 50. The mapping unit 7 initializes each of the skin color update value and the non-skin color initial value, and then executes the process shown in FIG. 10 on the selected target pixel. Hereinafter, a case where the pixel Mb illustrated in FIG. 9 is selected as the target pixel will be described.

マッピング部7は、肌色マッピング画像50の各画素の画素値を更新する処理(ステップS11〜S17)の前に、肌色更新値又は非肌色更新値を調整する処理(ステップS21〜S24)を実行する。図10に示すステップS11〜S17の処理については、第1の実施の形態で既に説明しているため、その詳細な説明を省略する。   The mapping unit 7 executes a process of adjusting the skin color update value or the non-skin color update value (steps S21 to S24) before the process of updating the pixel value of each pixel of the skin color mapping image 50 (steps S11 to S17). . Since the processing in steps S11 to S17 shown in FIG. 10 has already been described in the first embodiment, detailed description thereof will be omitted.

マッピング部7は、画素Mbが動きベクトル81の終点領域内の画素であるか否かを判断する(ステップS21)。画素Mbが終点領域(マクロブロック83)内に位置するため(ステップS21においてYes)、マッピング部7は、画素Mbの画素値の更新に用いられる肌色更新値を調整する(ステップS22)。具体的には、マッピング部7は、ベクトル検出データ80に記録された動きベクトル81の大きさに応じて、予め設定されていた肌色更新値を増加させる。肌色更新値の調整量は、例えば、図11に示すように、マッピング部7に設定された調整テーブルに基づいて決定される。動きベクトル81の大きさが「8」である場合、マッピング部7は、加算値「50」に調整量「50」を加算する。その後、マッピング部7は、ステップS11に進む。   The mapping unit 7 determines whether or not the pixel Mb is a pixel in the end point region of the motion vector 81 (step S21). Since the pixel Mb is located in the end point region (macroblock 83) (Yes in Step S21), the mapping unit 7 adjusts the flesh color update value used for updating the pixel value of the pixel Mb (Step S22). Specifically, the mapping unit 7 increases the preset skin color update value according to the magnitude of the motion vector 81 recorded in the vector detection data 80. The adjustment amount of the skin color update value is determined based on, for example, an adjustment table set in the mapping unit 7 as shown in FIG. When the size of the motion vector 81 is “8”, the mapping unit 7 adds the adjustment amount “50” to the addition value “50”. Thereafter, the mapping unit 7 proceeds to step S11.

画素Mbに対応する肌色推定画像40の画素の画素値が「1」である場合(ステップS11においてYes)、マッピング部7は、調整された肌色更新値を画素Mbの画素値に加算する(ステップS12)。画素Mbに対応する肌色推定画像40の画素の画素値が「0」である場合(ステップS11においてNo)、マッピング部7は、予め設定された非肌色更新値を画素Mbの画素値から減算する(ステップS15)。   When the pixel value of the pixel of the skin color estimation image 40 corresponding to the pixel Mb is “1” (Yes in Step S11), the mapping unit 7 adds the adjusted skin color update value to the pixel value of the pixel Mb (Step S11). S12). When the pixel value of the pixel of the flesh color estimation image 40 corresponding to the pixel Mb is “0” (No in Step S11), the mapping unit 7 subtracts a preset non-skin color update value from the pixel value of the pixel Mb. (Step S15).

次に、図9に示す画素Maが注目画素として選択された場合を説明する。マッピング部7は、画素Maが動きベクトル81の終点領域内の画素ではないため(ステップS21においてNo)、ステップS23に進む。画素Maが始点領域内に位置するため(ステップS23においてYes)、マッピング部7は、画素Maの画素値の更新に用いられる非肌色更新値を調整する(ステップS24)。具体的には、マッピング部7は、動きベクトル81の大きさに応じて、非肌色更新値を増加させる。非肌色更新値の調整量は、上記と同様に、調整テーブル(図11参照)に基づいて決定される。動きベクトル81の大きさが「8」であるため、マッピング部7は、非肌色更新値「50」に調整量「50」を加算する。その後、マッピング部7は、ステップS11に進む。   Next, a case where the pixel Ma shown in FIG. 9 is selected as the target pixel will be described. Since the pixel Ma is not a pixel in the end point region of the motion vector 81 (No in step S21), the mapping unit 7 proceeds to step S23. Since the pixel Ma is located in the start point region (Yes in step S23), the mapping unit 7 adjusts the non-skin color update value used for updating the pixel value of the pixel Ma (step S24). Specifically, the mapping unit 7 increases the non-skin color update value according to the magnitude of the motion vector 81. The adjustment amount of the non-skin color update value is determined based on the adjustment table (see FIG. 11) in the same manner as described above. Since the size of the motion vector 81 is “8”, the mapping unit 7 adds the adjustment amount “50” to the non-skin color update value “50”. Thereafter, the mapping unit 7 proceeds to step S11.

画素Mbに対応する肌色推定画像40の画素の画素値が「0」である場合(ステップS11においてNo)、マッピング部7は、調整された非肌色更新値を画素Mbの画素値から減算する(ステップS15)。画素Maに対応する肌色推定画像40の画素の画素値が「1」である場合(ステップS11においてNo)、マッピング部7は、予め設定された肌色更新値を画素Mbの画素値に加算する(ステップS12)。   When the pixel value of the pixel of the skin color estimation image 40 corresponding to the pixel Mb is “0” (No in Step S11), the mapping unit 7 subtracts the adjusted non-skin color update value from the pixel value of the pixel Mb ( Step S15). When the pixel value of the pixel of the flesh color estimation image 40 corresponding to the pixel Ma is “1” (No in step S11), the mapping unit 7 adds a preset flesh color update value to the pixel value of the pixel Mb ( Step S12).

注目画素が始点領域及び終点領域のいずれの領域内にも存在しない場合、肌色更新値及び非肌色更新値は調整されない。   When the target pixel does not exist in any of the start point region and the end point region, the skin color update value and the non-skin color update value are not adjusted.

人体検出装置300は、動きベクトルを考慮してカレントフレーム画像における肌色領域を検出する。これにより、肌色領域の検出の応答性を向上させることができる。以下その理由を説明する。   The human body detection device 300 detects a skin color region in the current frame image in consideration of the motion vector. Thereby, the responsiveness of detection of a skin color area | region can be improved. The reason will be described below.

最初に、動きベクトルを考慮に入れない注目画素の画素値の更新について説明する。ここで、手のひらの移動に伴って、カレントフレーム画像において手のひらの領域22内に存在し、かつ、前フレーム画像において手のひらの領域21内に存在しない画素(例えば、画素Mb(図9参照))を想定する。   First, the update of the pixel value of the target pixel that does not take the motion vector into consideration will be described. Here, with the movement of the palm, pixels that exist in the palm region 22 in the current frame image and do not exist in the palm region 21 in the previous frame image (for example, the pixel Mb (see FIG. 9)). Suppose.

カレントフレーム画像より前の複数のフレーム画像20において、画素Mbに対応する画素が肌色を有していない場合、画素Mbは、「0」、「50」など、しきい値を大きく下回る画素値を有する。画素Mbに対応する画素が肌色を有していると判断された場合、画素Mbの画素値に肌色更新値が加算される。しかし、肌色更新値が調整されていない場合、加算後の画素Mbの画素値は、しきい値を超えない。カレントフレーム画像における手のひらの領域22が肌色判定画像60に反映されるのは、カレントフレーム画像に続いて複数のフレーム画像20が入力された後になる。   In the plurality of frame images 20 before the current frame image, when the pixel corresponding to the pixel Mb does not have a flesh color, the pixel Mb has a pixel value that is significantly lower than the threshold, such as “0” or “50”. Have. When it is determined that the pixel corresponding to the pixel Mb has a flesh color, the flesh color update value is added to the pixel value of the pixel Mb. However, when the flesh color update value is not adjusted, the pixel value of the pixel Mb after addition does not exceed the threshold value. The palm region 22 in the current frame image is reflected in the skin color determination image 60 after a plurality of frame images 20 are input following the current frame image.

逆に、カレントフレーム画像において手のひらの領域22内に存在せず、かつ、前フレーム画像において手のひらの領域21内に存在していた画素(例えば、画素Ma(図9参照))を想定する。   Conversely, a pixel (for example, pixel Ma (see FIG. 9)) that does not exist in the palm region 22 in the current frame image and exists in the palm region 21 in the previous frame image is assumed.

カレントフレーム画像より前の複数のフレーム画像20において、画素Maの位置に対応する画素が肌色を有すると推定されていた場合、画素Maは、「200」、「250」など、しきい値を大きく上回る画素値を有する。画素Maに対応する画素が肌色以外の色を有していると判断された場合、画素Maの画素値から非肌色更新値が減算される。しかし、画素Maの画素値から調整されていない肌色更新値を減算しても、画素Maの画素値は、しきい値を下回ることができない。このため、肌色判定画像60は、カレントフレーム画像20における手のひらの領域を反映することができない。カレントフレーム画像における手のひら以外の領域が肌色判定画像60に反映されるのは、上記と同様に、カレントフレーム画像に続いて複数のフレーム画像20が入力された後になる。   In the plurality of frame images 20 before the current frame image, when the pixel corresponding to the position of the pixel Ma is estimated to have a skin color, the pixel Ma has a large threshold value such as “200” or “250”. Has a pixel value above. When it is determined that the pixel corresponding to the pixel Ma has a color other than the skin color, the non-skin color update value is subtracted from the pixel value of the pixel Ma. However, even if the skin color update value that has not been adjusted is subtracted from the pixel value of the pixel Ma, the pixel value of the pixel Ma cannot fall below the threshold value. For this reason, the skin color determination image 60 cannot reflect the palm region in the current frame image 20. The area other than the palm in the current frame image is reflected in the skin color determination image 60 after a plurality of frame images 20 are input following the current frame image, as described above.

これに対して、人体検出装置300は、動きベクトルに基づいて、肌色更新値及び非肌色更新値の両者を、初期値よりも大きい値に調整する。これにより、画素Mbに対応する肌色推定画像40の画素が画素値「1」を有する場合、画素Mbの画素値は、しきい値を超えやすくなる。逆に、画素Maに対応する肌色推定画像40の画素が画素値「0」を有する場合、画素Maの画素値は、しきい値を下回りやすくなる。カレントフレーム画像の情報を肌色マッピング画像50に反映させることができるため、肌色領域の検出の応答性を向上させることができる。   On the other hand, the human body detection device 300 adjusts both the skin color update value and the non-skin color update value to a value larger than the initial value based on the motion vector. Thereby, when the pixel of the skin color estimation image 40 corresponding to the pixel Mb has the pixel value “1”, the pixel value of the pixel Mb tends to exceed the threshold value. Conversely, when the pixel of the skin color estimation image 40 corresponding to the pixel Ma has the pixel value “0”, the pixel value of the pixel Ma is likely to be below the threshold value. Since the information of the current frame image can be reflected in the skin color mapping image 50, the response of detecting the skin color region can be improved.

また、動きベクトル81が大きくなるにつれて、領域21が領域22と重なる面積が狭くなる。つまり、前フレーム画像において肌色以外の色を有する画素が、カレントフレーム画像において肌色を有する確率が高くなり、前フレーム画像において肌色を有する画素が、カレントフレーム画像において肌色以外の色を有する確率が高くなる。そこで、肌色更新値及び非肌色更新値を大きくすることにより、前フレーム画像において肌色以外の色を有し、カレントフレーム画像において肌色を有する終点領域内の画素の画素値が、しきい値を超えやすくなる。同様に、前フレーム画像において肌色を有し、カレントフレーム画像において肌色以外の色を有する始点領域内の画素の画素値が、しきい値を下回りやすくなる。動きベクトルの大きさに応じて注目画素の画素値の更新量を変化させることにより、前フレーム画像からカレントフレーム画像にかけての手のひらの動きを、カレントフレーム画像に対応する肌色判定画像60に反映させることができる。   Further, as the motion vector 81 increases, the area where the region 21 overlaps the region 22 decreases. That is, a pixel having a color other than skin color in the previous frame image has a high probability of having a skin color in the current frame image, and a pixel having a skin color in the previous frame image has a high probability of having a color other than the skin color in the current frame image. Become. Therefore, by increasing the skin color update value and the non-skin color update value, the pixel value of the pixel in the end point region having a color other than the skin color in the previous frame image and having the skin color in the current frame image exceeds the threshold value. It becomes easy. Similarly, the pixel value of the pixel in the start point region having a flesh color in the previous frame image and a color other than the flesh color in the current frame image is likely to fall below the threshold value. Reflecting the movement of the palm from the previous frame image to the current frame image in the skin color determination image 60 corresponding to the current frame image by changing the update amount of the pixel value of the target pixel according to the magnitude of the motion vector. Can do.

なお、上記実施の形態では、色空間変換部1が、フレーム画像20の色空間をRGB形式からHSV形式に変換する例を説明したが、これに限られない。例えば、色空間変換部1は、フレーム画像20の色空間(RGB形式)を2つの色差信号を有する色空間(YCbCr形式など)に変換してもよい。この場合、肌色領域推定部2は、2次元のCb−Cr空間において肌色と推定される領域を記録したデータを保持する。肌色領域推定部2は、各画素が有する2つの色差信号が、このデータで示される領域内に存在するか否かを判断してもよい。   In the above-described embodiment, the example in which the color space conversion unit 1 converts the color space of the frame image 20 from the RGB format to the HSV format has been described, but the present invention is not limited to this. For example, the color space conversion unit 1 may convert the color space (RGB format) of the frame image 20 into a color space (YCbCr format or the like) having two color difference signals. In this case, the skin color region estimation unit 2 holds data in which a region estimated to be skin color is recorded in the two-dimensional Cb-Cr space. The skin color area estimation unit 2 may determine whether or not two color difference signals of each pixel are present in the area indicated by this data.

あるいは、人体検出装置100は、色空間変換部1を備えなくてもよい。この場合、肌色領域推定部2は、3次元のRGB色空間において肌色と推定される領域を記録したデータを保持すればよい。   Alternatively, the human body detection device 100 may not include the color space conversion unit 1. In this case, the skin color area estimation unit 2 may hold data in which the area estimated to be skin color in the three-dimensional RGB color space is recorded.

また、上記実施の形態では、肌色マッピング画像50の各画素の画素値の更新に用いられる加算値及び減算値がともに50である場合を説明したが、これに限られない。加算値が減算値より大きくてもよいし、その逆でもよい。   Moreover, although the said embodiment demonstrated the case where both the addition value and subtraction value used for the update of the pixel value of each pixel of the skin color mapping image 50 were 50, it is not restricted to this. The added value may be larger than the subtracted value or vice versa.

また、上記実施の形態では、マッピング部3は、肌色マッピング画像50の更新の際に、各画素の画素値を加算又は減算したが、これに限られない。マッピング部3は、各画素の画素値を減算しなくてもよい。この場合、マッピング部3は、肌色以外の色に対応する画素の画素値を変更しない。マッピング部3は、カレントフレーム画像から生成された肌色推定画像40と、カレントフレーム画像の直前に人体検出装置100に入力された所定数(例えば、4)のフレーム画像20の各々から生成された肌色推定画像40とを用いて、肌色マッピング画像50の各画素の画素値を計算すればよい。   Moreover, in the said embodiment, the mapping part 3 added or subtracted the pixel value of each pixel in the case of the update of the skin color mapping image 50, However, It is not restricted to this. The mapping unit 3 may not subtract the pixel value of each pixel. In this case, the mapping unit 3 does not change the pixel value of the pixel corresponding to a color other than the skin color. The mapping unit 3 generates the flesh color generated from each of the skin color estimation image 40 generated from the current frame image and a predetermined number (for example, 4) of frame images 20 input to the human body detection device 100 immediately before the current frame image. A pixel value of each pixel of the skin color mapping image 50 may be calculated using the estimated image 40.

また、上記実施の形態では、肌色領域推定部2が使用する基準範囲が固定されている例を説明したが、これに限られない。肌色領域推定部1は、ホワイトバランス調整機能を有していてもよい。人体検出装置1は、人物がカメラ200に手のひらをかざした状態で、フレーム画像20のホワイトバランスを調整する。肌色領域推定部2は、ホワイトバランスの調整結果に応じて、HSVフレーム画像の各画素が肌色を有しているかを判定するために用いられる識別範囲を調整しても良い。これにより、カメラ200の撮影環境に適した識別範囲を使用することができる。   Moreover, although the said embodiment demonstrated the example with which the reference | standard range which the skin color area | region estimation part 2 uses was fixed, it is not restricted to this. The skin color area estimation unit 1 may have a white balance adjustment function. The human body detection device 1 adjusts the white balance of the frame image 20 in a state where the person holds the palm of the hand over the camera 200. The skin color area estimation unit 2 may adjust the identification range used to determine whether each pixel of the HSV frame image has a skin color according to the white balance adjustment result. Thereby, the identification range suitable for the imaging environment of the camera 200 can be used.

また、上記実施の形態では、肌色領域推定部2が、HSVフレーム画像30の肌色領域を一画素単位で推定する例を説明したが、これに限られない。肌色領域推定部2は、HSVフレーム画像30の複数の画素により構成されるブロック(例えば、2×2画素、4×4画素など)単位で、肌色領域を推定してもよい。この場合、肌色領域推定部2は、ブロックを構成する各画素の色相値の代表値(平均値、中間値)などを算出し、算出した代表値が識別範囲内であるか否かを判断すればよい。   Moreover, although the skin color area estimation part 2 estimated the skin color area of the HSV frame image 30 per pixel in the said embodiment, it is not restricted to this. The skin color area estimation unit 2 may estimate the skin color area in units of blocks (for example, 2 × 2 pixels, 4 × 4 pixels, and the like) configured by a plurality of pixels of the HSV frame image 30. In this case, the skin color area estimation unit 2 calculates a representative value (average value, intermediate value) of the hue value of each pixel constituting the block, and determines whether or not the calculated representative value is within the identification range. That's fine.

また、上記実施の形態では、肌色更新値又は非肌色更新値に対して共通の調整量が加算される例を説明したが、これに限られない。肌色更新値に用いられる調整量と、非肌色更新値に用いられる調整量とが、異なっていてもよい。   Moreover, although the said embodiment demonstrated the example in which a common adjustment amount is added with respect to a skin color update value or a non-skin color update value, it is not restricted to this. The adjustment amount used for the skin color update value may be different from the adjustment amount used for the non-skin color update value.

また、上記実施の形態では、肌色マッピング画像50が、動画像が人体検出装置に入力される前に初期化される例を説明したが、これに限られない。例えば、肌色マッピング画像50は、定期的に(例えば、30個のフレーム画像20が入力されるごとに)初期化してもよい。   In the above embodiment, the skin color mapping image 50 is initialized before the moving image is input to the human body detection device. However, the present invention is not limited to this. For example, the skin color mapping image 50 may be initialized periodically (for example, every time 30 frame images 20 are input).

上記実施の形態で説明した人体検出装置100,300において、各機能部は、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されてもよい。集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサーで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。   In the human body detection devices 100 and 300 described in the above embodiments, each functional unit may be individually made into one chip by a semiconductor device such as an LSI, or may be made into one chip so as to include a part or the whole. Also good. The method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI, or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.

また、上記実施の形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記実施の形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。   In addition, a part or all of the processing of each functional block of the above embodiment may be realized by a program. A part or all of the processing of each functional block in the above embodiment is performed by a central processing unit (CPU) in the computer. In addition, a program for performing each processing is stored in a storage device such as a hard disk or a ROM, and is read out and executed in the ROM or the RAM.

また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。   Each processing of the above embodiment may be realized by hardware, or may be realized by software (including a case where the processing is realized together with an OS (Operating System), middleware, or a predetermined library). Further, it may be realized by mixed processing of software and hardware.

前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc)、半導体メモリを挙げることができる。   A computer program that causes a computer to execute the above-described method and a computer-readable recording medium that records the program are included in the scope of the present invention. Here, examples of the computer-readable recording medium include a flexible disk, a hard disk, a CD-ROM, an MO, a DVD, a DVD-ROM, a DVD-RAM, a BD (Blu-ray Disc), and a semiconductor memory. .

上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。   The computer program is not limited to the one recorded on the recording medium, and may be transmitted via a telecommunication line, a wireless or wired communication line, a network represented by the Internet, or the like.

100,300 人体検出装置
200 カメラ
1 色空間変換部
2 肌色領域推定部
3,7 マッピング部
4 比較部
5 画像認識部
6 動きベクトル検出部
DESCRIPTION OF SYMBOLS 100,300 Human body detection apparatus 200 Camera 1 Color space conversion part 2 Skin color area estimation part 3, 7 Mapping part 4 Comparison part 5 Image recognition part 6 Motion vector detection part

Claims (8)

動画像を構成するフレーム画像が入力された場合、前記フレーム画像において肌色を有すると推定される領域を特定する肌色領域推定部と、
前記肌色領域推定部により特定された領域に対応する肌色マッピング画像の画素の画素値に所定の加算値を加算して前記肌色マッピング画像を更新するマッピング部と、
前記マッピング部により更新された肌色マッピング画像の各画素をしきい値と比較し、前記肌色マッピング画像において前記しきい値よりも大きい画素値を有する画素の分布を示す肌色判定画像を生成する比較部と、
前記比較部により生成された肌色判定画像から人体の所定の部位を検出する画像認識部と、
を備える人体検出装置。
When a frame image constituting a moving image is input, a skin color region estimation unit that identifies a region estimated to have a skin color in the frame image;
A mapping unit that updates the skin color mapping image by adding a predetermined addition value to a pixel value of a pixel of the skin color mapping image corresponding to the region specified by the skin color region estimation unit;
A comparison unit that compares each pixel of the flesh color mapping image updated by the mapping unit with a threshold value, and generates a flesh color determination image indicating a distribution of pixels having pixel values larger than the threshold value in the flesh color mapping image. When,
An image recognition unit for detecting a predetermined part of the human body from the skin color determination image generated by the comparison unit;
A human body detection device comprising:
請求項1に記載の人体検出装置であって、
前記マッピング部は、前記肌色領域推定部により特定された領域に対応しない肌色マッピング画像の画素の画素値から所定の減算値を減算する人体検出装置。
The human body detection device according to claim 1,
The human body detection device, wherein the mapping unit subtracts a predetermined subtraction value from a pixel value of a pixel of a skin color mapping image that does not correspond to the region specified by the skin color region estimation unit.
請求項2に記載の人体検出装置であって、
前記マッピング部は、前記更新された肌色マッピング画像の画素の画素値が所定の上限値を超えた場合、前記更新された肌色マッピング画像の画素の画素値を前記上限値に設定する人体検出装置。
The human body detection device according to claim 2,
The said mapping part is a human body detection apparatus which sets the pixel value of the pixel of the said updated skin color mapping image to the said upper limit value, when the pixel value of the pixel of the said updated skin color mapping image exceeds the predetermined | prescribed upper limit value.
請求項2又は3に記載の人体検出装置であって、
前記マッピング部は、前記肌色マッピング画像の画素の画素値が所定の下限値を下回った場合、前記更新された肌色マッピング画像の画素の画素値を前記下限値に設定する人体検出装置。
The human body detection device according to claim 2 or 3,
The said mapping part is a human body detection apparatus which sets the pixel value of the pixel of the said updated skin color mapping image to the said lower limit value, when the pixel value of the pixel of the said skin color mapping image is less than the predetermined lower limit value.
請求項2ないし4のいずれかに記載の人体検出装置であって、さらに、
前記フレーム画像と、前記フレーム画像よりも前に入力された過去画像とを用いて、前記フレーム画像から動きベクトルを検出する動きベクトル検出部、
を備え、
前記マッピング部は、前記動きベクトル検出部により検出された動きベクトルの終点に対応する前記マッピング画像の画素の画素値に対して、前記所定の加算値よりも大きい調整加算値を加算し、前記検出された動きベクトルの起点に対応する前記マッピング画像の画素の画素値から、前記所定の減算値よりも大きい調整減算値を減算する人体検出装置。
The human body detection device according to claim 2, further comprising:
A motion vector detection unit that detects a motion vector from the frame image using the frame image and a past image input before the frame image;
With
The mapping unit adds an adjustment addition value larger than the predetermined addition value to the pixel value of the pixel of the mapping image corresponding to the end point of the motion vector detected by the motion vector detection unit, and the detection A human body detection device that subtracts an adjustment subtraction value larger than the predetermined subtraction value from a pixel value of a pixel of the mapping image corresponding to a starting point of a motion vector that has been made.
請求項5に記載の人体検出装置であって、
前記マッピング部は、前記動きベクトルが大きくなるにつれて、前記調整加算値及び前記調整減算値を増加させる人体検出装置。
The human body detection device according to claim 5,
The said mapping part is a human body detection apparatus which increases the said adjustment addition value and the said adjustment subtraction value as the said motion vector becomes large.
請求項1ないし6のいずれかに記載の人体検出装置であって、
前記肌色領域推定部は、被写体を撮像して前記動画像を生成するカメラにおいて調整されたホワイトバランスに基づいて、前記肌色を有すると推定される領域を検出するための条件を調整する人体検出装置。
The human body detection device according to any one of claims 1 to 6,
The skin color region estimation unit adjusts conditions for detecting a region estimated to have the skin color based on white balance adjusted in a camera that captures a subject and generates the moving image. .
人体検出装置に搭載されたコンピュータを、
動画像を構成するフレーム画像が入力された場合、前記フレーム画像において肌色を有すると推定される領域を特定する肌色領域推定部、
前記肌色領域推定部により特定された領域に対応する肌色マッピング画像の画素の画素値に所定の加算値を加算して前記肌色マッピング画像を更新するマッピング部、
前記マッピング部により更新された肌色マッピング画像の各画素をしきい値と比較し、前記肌色マッピング画像において前記しきい値よりも大きい画素値を有する画素の分布を示す肌色判定画像を生成する比較部、
前記比較部により生成された肌色判定画像から人体の所定の部位を検出する画像認識部、
として機能させるための人体検出プログラム。
The computer installed in the human body detection device
When a frame image constituting a moving image is input, a skin color region estimation unit that specifies a region estimated to have a skin color in the frame image;
A mapping unit that updates the skin color mapping image by adding a predetermined addition value to a pixel value of a pixel of the skin color mapping image corresponding to the region specified by the skin color region estimation unit;
A comparison unit that compares each pixel of the flesh color mapping image updated by the mapping unit with a threshold value, and generates a flesh color determination image indicating a distribution of pixels having pixel values larger than the threshold value in the flesh color mapping image. ,
An image recognition unit for detecting a predetermined part of the human body from the skin color determination image generated by the comparison unit;
Human body detection program to function as.
JP2014190367A 2014-09-18 2014-09-18 Human body detection device Active JP6396138B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014190367A JP6396138B2 (en) 2014-09-18 2014-09-18 Human body detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014190367A JP6396138B2 (en) 2014-09-18 2014-09-18 Human body detection device

Publications (2)

Publication Number Publication Date
JP2016061692A JP2016061692A (en) 2016-04-25
JP6396138B2 true JP6396138B2 (en) 2018-09-26

Family

ID=55797606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014190367A Active JP6396138B2 (en) 2014-09-18 2014-09-18 Human body detection device

Country Status (1)

Country Link
JP (1) JP6396138B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113495301B (en) * 2020-03-20 2024-08-09 株式会社理光 Band inspection method, band inspection device, storage medium, and system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7251346B2 (en) * 2002-11-19 2007-07-31 Honda Motor Co., Ltd. Moving object detection device, moving object detection method, and moving object detection program
JP4235018B2 (en) * 2003-03-31 2009-03-04 本田技研工業株式会社 Moving object detection apparatus, moving object detection method, and moving object detection program
JP2004246424A (en) * 2003-02-10 2004-09-02 Masahide Kaneko Method for extracting skin color area
JP2007257087A (en) * 2006-03-20 2007-10-04 Univ Of Electro-Communications Skin color area detecting device and skin color area detecting method
JP5099434B2 (en) * 2008-02-28 2012-12-19 国立大学法人秋田大学 Object region extraction system and method
JP2010093679A (en) * 2008-10-10 2010-04-22 Fujifilm Corp Imaging apparatus, and imaging control method

Also Published As

Publication number Publication date
JP2016061692A (en) 2016-04-25

Similar Documents

Publication Publication Date Title
US11004214B2 (en) Image processing apparatus, image processing method, and storage medium
KR101271098B1 (en) Digital photographing apparatus, method for tracking, and recording medium storing program to implement the method
US10013609B2 (en) Image capturing apparatus and image processing method
TWI701609B (en) Method, system, and computer-readable recording medium for image object tracking
EP3493539B1 (en) Image processing apparatus, image processing method, and storage medium
US20130155275A1 (en) Image capturing apparatus, image capturing method, and computer-readable recording medium storing image capturing program
KR20180119484A (en) Moving object detection apparatus, control method for moving object detection apparatus, computer-readable storage medium, and program
JP6944901B2 (en) Biometric information detection device and biometric information detection method
JP2018086130A (en) Biological information detection device and biological information detection method
US9489721B2 (en) Image processing apparatus, image processing method, and storage medium
US10735680B2 (en) Infrared imaging device, fixed pattern noise calculation method, and fixed pattern noise calculation program
US10489895B2 (en) Image processing apparatus, image processing method, and storage medium
US20210289119A1 (en) Information processing apparatus, imaging apparatus, method, and storage medium
JP6396138B2 (en) Human body detection device
JP2017157043A (en) Image processing device, imaging device, and image processing method
JP2010050651A (en) White balance controller and imaging device using the same, and white balance control method
JP6450107B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP6827782B2 (en) Image processing equipment, imaging equipment, image processing methods, image processing programs, and recording media
US8824734B2 (en) Device, method and recording to determine depressed portions of image regions using shortcut line analysis
KR20190072643A (en) A face detecting apparatus, a control method therefor, and a program
JP5843618B2 (en) Image processing apparatus, control method thereof, and program
JP2018093359A (en) Image processing apparatus, image processing method, and program
WO2023106103A1 (en) Image processing device and control method for same
WO2024009744A1 (en) Information processing device, information processing method, and program
WO2022014251A1 (en) Information processing device, correction method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180829

R150 Certificate of patent or registration of utility model

Ref document number: 6396138

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250