JP2007052609A - Hand area detection device, hand area detection method and program - Google Patents

Hand area detection device, hand area detection method and program Download PDF

Info

Publication number
JP2007052609A
JP2007052609A JP2005236876A JP2005236876A JP2007052609A JP 2007052609 A JP2007052609 A JP 2007052609A JP 2005236876 A JP2005236876 A JP 2005236876A JP 2005236876 A JP2005236876 A JP 2005236876A JP 2007052609 A JP2007052609 A JP 2007052609A
Authority
JP
Japan
Prior art keywords
hand
region
candidate
area
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005236876A
Other languages
Japanese (ja)
Inventor
Ikoku Go
偉国 呉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005236876A priority Critical patent/JP2007052609A/en
Publication of JP2007052609A publication Critical patent/JP2007052609A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a hand area extraction device and a hand area detection method, which can be used in actual environment without depending on an individual difference of a person or an illumination change. <P>SOLUTION: This hand area detection device has: an image capturing part 12 capturing an image imaged by an imaging part 11; a flesh color candidate area selection part 13 selecting a flesh-colored candidate area from the image captured by the image capturing part 12; a hand candidate area extraction part 14 extracting a hand candidate area from the flesh-colored candidate area selected by the flesh color candidate selection part; a shape complexity calculation part 15 calculating a complexity of a shape of the hand candidate area extracted by the hand candidate area extraction part; a complexity evaluation part 16 evaluating the complexity calculated by the shape complexity calculation part 15; and a hand area determination part 17 determining a hand area on the basis of an evaluation result by the complexity evaluation part 16. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、人と機器との間のインタフェースに関し、特に、人の手の領域を検出・認識する手領域検出装置及び手領域検出方法、並びにプログラムに関するものである。   The present invention relates to an interface between a person and a device, and more particularly to a hand area detecting device, a hand area detecting method, and a program for detecting and recognizing an area of a human hand.

人と機器との間の自然なインタフェースを実現するには、人の手振り・身振りを含めて、操作者の様々な行動や音声などの情報を統合的に解析し、人の存在や意図などを検出し認識することが不可欠である。そこで、従来から人の行動解析に関する様々な技術が検討されてきた。これらを大別すると、人の顔に着目したもの(例えば、顔の向き、表情、視線、唇の動きなど)と、人の手足の動き(手振り、指差し、ジェスチャ、動きイベント、歩行パターンなど)に着目したものに分けることができる。その中でも一般環境での手領域の検出・認識は最も重要な技術の一つであり、数多く検討されている。例えば、人の手を左右に動かす往復運動に着目した手振り検出方法(例えば、非特許文献1参照。)、データグローブなどの特殊なものを取り付ける手法(例えば、非特許文献2参照。)、人の肌色情報などを用いる手法(例えば、非特許文献3及び非特許文献4参照。)などが提案されている。   In order to realize a natural interface between humans and devices, information such as human gestures and gestures, including various actions and voices of the operator, is analyzed in an integrated manner, and the presence and intention of humans are determined. It is essential to detect and recognize. Therefore, various techniques related to human behavior analysis have been studied. These can be broadly classified as those that focus on human faces (for example, face orientation, facial expression, line of sight, lip movement, etc.) and human limb movements (hand gestures, pointing, gestures, motion events, walking patterns, etc.) ). Among them, detection and recognition of the hand region in a general environment is one of the most important technologies, and many studies have been made. For example, a hand shaking detection method focusing on a reciprocating motion that moves a human hand to the left and right (for example, see Non-Patent Document 1), a method for attaching a special object such as a data glove (for example, see Non-Patent Document 2), a person Have been proposed (for example, see Non-Patent Document 3 and Non-Patent Document 4).

入江、梅田: 濃淡値の時系列変化を利用した画像からの手振りの検出、 P2-8, 画像の認識・理解シンポジウム(MIRU'02) (名工大(名古屋市),7 月30日-8 月1 日,2002)Irie, Umeda: Detection of hand gestures from images using time-series changes in gray values, P2-8, Symposium on Image Recognition and Understanding (MIRU'02) (Nagoya Institute of Technology (Nagoya City), July 30-August 1st, 2002) 星野: 非言語コミュニケーションが可能なロボットハンドの設計、文科省科研費特定領域研究「IT の深化の基盤を拓く情報学研究」 研究項目A03「人間の情報処理の理解とその応用に関する研究」 第4 回柱研究会 (芝蘭会館(京都市),7 月2 日,2003)Hoshino: Design of robot hand capable of non-verbal communication, Ministry of Education, Culture, Sports, Science and Technology Grant-in-Aid for Scientific Research “Informatics research that pioneers the foundation of IT deepening” Research item A03 “Research on human information processing and its application” No. 4 Kaishira Kenkyukai (Shibaran Kaikan (Kyoto City), July 2, 2003) 伊藤、尾関、中村、大田: 映像インデキシングのための手と把持物体のロバストな認識と追跡、画像センシングシンポジウム、 pp.143-162, (2003)Ito, Ozeki, Nakamura, Ota: Robust recognition and tracking of hands and grasped objects for video indexing, Symposium on Image Sensing, pp.143-162, (2003) 入江、梅田:ジェスチャ認識に基づくインテリジェントルームの構築、第4 回動画像処理実利用化ワークショップ、平成15 年3 月6 日−7 日Irie, Umeda: Construction of intelligent room based on gesture recognition, 4th rotating image processing practical use workshop, March 6-7, 1995

上記非特許文献1に記載された手の周期的な動きによる手振り検出手法は、照明などに影響されにくいといった利点があるが、背景との輝度差や手の振り方の個人差などによって、手領域を正確に検出できない虞がある。   Although the hand shaking detection method based on the periodic movement of the hand described in Non-Patent Document 1 has an advantage that it is not easily affected by illumination or the like, the hand shake detection method may be affected by a difference in brightness from the background or an individual difference in hand shaking. There is a possibility that the area cannot be accurately detected.

また、上記非特許文献2に記載されたデータグローブなどの特殊なものを利用する手法は、手を確実に検出できるが、自然なインタフェースではない。   Moreover, although the method using a special thing like the data glove described in the said nonpatent literature 2 can detect a hand reliably, it is not a natural interface.

また、上記非特許文献3及び4に記載された人の肌色だけを利用した手領域検出手法は、多く用いられているが、照明環境の変化、肌色の個人差、カメラ内部設定(例えば、ホワイトバランス)などによって、手領域の検出が困難な場合がある。   The hand region detection methods using only the human skin color described in Non-Patent Documents 3 and 4 are widely used. However, the lighting environment changes, individual differences in skin color, camera internal settings (for example, white In some cases, it is difficult to detect the hand region due to the balance.

また、肌色、手の動き、手の大きさ、人間の肌の表面体温などを検出するためのマルチセンサーを用いた手領域検出手法も提案されていたが、システムの構築が複雑となってしまう。   Also, a hand region detection method using a multi-sensor for detecting skin color, hand movement, hand size, surface temperature of human skin, etc. has been proposed, but the construction of the system becomes complicated. .

本発明は、上記問題点を解消するためになされたものであり、人の個人差や照明変化に依らず、実環境で利用することができる手領域抽出装置及び手領域検出方法、並びにプログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems. A hand region extraction device, a hand region detection method, and a program that can be used in a real environment without depending on individual differences or changes in lighting. The purpose is to provide.

上述した課題を解決するために、本発明に係る手領域検出装置は、入力画像から人の統計的肌色特徴に基づいて手の候補領域を検出する手候補検出手段と、上記手候補検出手段で抽出された手の候補領域の形状複雑度を算出する形状複雑度算出手段と、上記形状複雑度算出手段で算出された形状複雑度に基づいて上記手の候補領域から手領域を検出する手領域検出手段とを備えることを特徴としている。   In order to solve the above-described problem, a hand region detection device according to the present invention includes a hand candidate detection unit that detects a hand candidate region from an input image based on a person's statistical skin color feature, and the hand candidate detection unit. Shape complexity calculating means for calculating the shape complexity of the extracted hand candidate area, and a hand area for detecting the hand area from the hand candidate area based on the shape complexity calculated by the shape complexity calculating means And a detecting means.

また、本発明に係る手領域検出方法は、入力画像から人の統計的肌色特徴に基づいて手の候補領域を検出する手候補検出工程と、上記手候補検出工程で抽出された手の候補領域の形状複雑度を算出する形状複雑度算出工程と、上記形状複雑度算出工程で算出された形状複雑度に基づいて上記手の候補領域から手領域を検出する手領域検出工程とを有することを特徴としている。   The hand region detection method according to the present invention includes a hand candidate detection step for detecting a hand candidate region based on a person's statistical skin color feature from an input image, and a hand candidate region extracted in the hand candidate detection step. A shape complexity calculating step for calculating the shape complexity of the hand, and a hand region detecting step for detecting a hand region from the candidate regions of the hand based on the shape complexity calculated in the shape complexity calculating step. It is a feature.

また、本発明に係るプログラムは、入力画像から手領域を検出する処理を実行させるプログラムにおいて、上記入力画像から人の肌色特徴に基づいて手の候補領域を検出する手候補検出工程と、上記手候補検出工程で抽出された手の候補領域の形状複雑度を算出する形状複雑度算出工程と、上記形状複雑度算出工程で算出された形状複雑度に基づいて上記手の候補領域から手領域を検出する手領域検出工程とを有することを特徴としている。   Further, the program according to the present invention is a program for executing a process of detecting a hand region from an input image. The hand candidate detecting step of detecting a hand candidate region from the input image based on a human skin color feature; A shape complexity calculation step for calculating the shape complexity of the hand candidate region extracted in the candidate detection step, and a hand region from the hand candidate region based on the shape complexity calculated in the shape complexity calculation step. And a hand region detecting step for detecting.

本発明によれば、入力画像から人の肌色特性に基づいて手の候補領域を抽出し、抽出された手の候補領域の形状複雑度を算出し、この形状複雑度に基づいて手の候補領域から手領域を検出することにより、人の個人差や照明変化に依らない実環境で利用することができる。   According to the present invention, a hand candidate area is extracted from an input image based on a human skin color characteristic, a shape complexity of the extracted hand candidate area is calculated, and a hand candidate area is calculated based on the shape complexity. By detecting the hand area from the camera, it can be used in an actual environment that does not depend on individual differences or lighting changes.

以下、本発明の具体的な実施の形態について、図面を参照しながら詳細に説明する。図1は、第1の実施形態における手領域検出装置の構成を示すブロック図である。この手領域検出装置10は、撮像部11と、撮像部11で撮像された画像を取り込む画像取込部12と、画像取込部12で取り込んだ画像から肌色の候補領域を選定する肌色候補領域選定部13と、肌色候補選定部13で選定された肌色の候補領域から手候補領域を抽出する手候補領域抽出部14と、手候補領域抽出部14で抽出された手候補領域の形状の複雑度を算出する形状複雑度算出部15と、形状複雑度算出部15で算出された複雑度に基づいて手領域を検出する手領域検出部16とを備えて構成される。   Hereinafter, specific embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of a hand region detection device according to the first embodiment. The hand region detection device 10 includes an imaging unit 11, an image capturing unit 12 that captures an image captured by the imaging unit 11, and a skin color candidate region that selects a skin color candidate region from the image captured by the image capturing unit 12. The selection unit 13, the hand candidate region extraction unit 14 that extracts a hand candidate region from the skin color candidate region selected by the skin color candidate selection unit 13, and the complexity of the shape of the hand candidate region extracted by the hand candidate region extraction unit 14 A shape complexity calculating unit 15 for calculating the degree and a hand region detecting unit 16 for detecting a hand region based on the complexity calculated by the shape complexity calculating unit 15 are configured.

撮像部11は、CCD(Charge Coupled Device)等の撮像素子を有するカメラで構成されている。   The imaging unit 11 includes a camera having an imaging element such as a CCD (Charge Coupled Device).

画像取込部12は、撮像部11からJPEG(Joint Photographic Experts Group)等のフォーマットの画像を取り込む。   The image capturing unit 12 captures an image in a format such as JPEG (Joint Photographic Experts Group) from the imaging unit 11.

肌色候補領域選定部13は、人間の統計的肌色特徴に基づいた肌色モデルを用いて、画像内の各画素が肌色モデルの色であるかどうかを判定することによって、肌色候補領域を選定する。この肌色モデルは、色相、彩度、RGB情報等を用いた統計的な処理により得られる。   The skin color candidate region selection unit 13 selects a skin color candidate region by determining whether each pixel in the image is the color of the skin color model using a skin color model based on human statistical skin color characteristics. This skin color model is obtained by statistical processing using hue, saturation, RGB information, and the like.

手候補領域抽出部14は、肌色候補領域選定部13で選定された各領域に対して、例えば、色相、彩度の分布等の画像分布特性を計算し、それらの領域内に例えば色相と彩度等の色特徴が類似する画素が最も大きい領域を手候補領域として抽出する。   The hand candidate area extraction unit 14 calculates, for example, image distribution characteristics such as hue and saturation distribution for each area selected by the skin color candidate area selection unit 13, and includes, for example, hue and saturation in those areas. A region having the largest pixel having similar color characteristics such as degree is extracted as a hand candidate region.

形状複雑度算出部15は、手候補領域抽出部14で抽出された各手候補領域に対して、例えば、面積(画素数)と周辺長との比や手候補領域の中心からの距離に基づいて形状複雑度を算出する。   For each hand candidate area extracted by the hand candidate area extraction unit 14, the shape complexity calculation unit 15 is based on, for example, the ratio of the area (number of pixels) to the peripheral length or the distance from the center of the hand candidate area. To calculate the shape complexity.

手領域検出部16は、形状複雑度算出部15で算出された各手候補領域の複雑度を、例えば、予め設定された閾値と比較評価することにより手領域を検出する。   The hand region detection unit 16 detects the hand region by comparing and evaluating the complexity of each hand candidate region calculated by the shape complexity calculation unit 15 with, for example, a preset threshold value.

なお、上述の手領域検出装置10の構成では、撮像部11から画像を取得することとしたが、DVD(Digital Versatile Disc)、インターネット等の様々な媒体から画像を取得するようにしてもよい。   In the configuration of the hand region detection device 10 described above, an image is acquired from the imaging unit 11, but an image may be acquired from various media such as a DVD (Digital Versatile Disc) and the Internet.

続いて、入力画像より手領域を検出するための処理について図面を参照して説明する。図2〜図5は、RGB情報を用いて入力画像から肌色候補を選定する際の画像例を示す図である。   Next, processing for detecting a hand region from an input image will be described with reference to the drawings. 2 to 5 are diagrams showing examples of images when skin color candidates are selected from an input image using RGB information.

肌色候補領域選定部13は、画像取込部12により取り込んだ、例えば、図2に示す入力画像に対して、文献(M. J. Jones and J. M. Rehg: Statistical color models with application to skin detection, Proc. IEEE Conf.Computer Vision and Pattern Recognition, vol. 2, pp. 274-280, 1999.)に記載された各画素のRGB情報を用いることにより、図3のように肌色モデル色を検出する。そして、各画素が肌色モデル色であるかどうかを判定することにより、図4に示すように肌色候補領域A〜Dを選定する。これにより、図2に示す入力画像に対して図5に示すような肌色候補領域A〜Dを決定することができる。なお、RGB情報に限らず、例えば、学習により得た肌色の統計的な情報(先見的知識)を用いて、各画素が肌色であるかどうかを判定し、画像のフィルタリング処理を用いた領域統合処理によって、画像内の肌色の候補領域を選定してもよい。   The skin color candidate region selection unit 13 takes the document (MJ Jones and JM Rehg: Statistical color models with application to skin detection, Proc. IEEE Conf.) For the input image shown in FIG. Using the RGB information of each pixel described in Computer Vision and Pattern Recognition, vol. 2, pp. 274-280, 1999.), the skin color model color is detected as shown in FIG. Then, by determining whether each pixel is a skin color model color, skin color candidate areas A to D are selected as shown in FIG. Thereby, skin color candidate areas A to D as shown in FIG. 5 can be determined for the input image shown in FIG. In addition to the RGB information, for example, by using statistical information (a priori knowledge) of skin color obtained by learning, it is determined whether each pixel is skin color, and region integration using image filtering processing A skin color candidate region in the image may be selected by the processing.

手候補領域抽出部14は、図2に示すような入力画像から色相画像Hue(i,j)及び彩度画像Sta(i,j)を計算し、入力画像を色相画像及び彩度画像に変換する。なお、色相はスペクトル上での色の位置を表しており、0度〜360度の角度により表されるものである。また、彩度は色の鮮やかさを表しており、灰色に近づくと値は小さくなり原色に近づくと値は大きくなる。   The hand candidate area extraction unit 14 calculates a hue image Hue (i, j) and a saturation image Sta (i, j) from the input image as shown in FIG. 2, and converts the input image into a hue image and a saturation image. To do. The hue represents the position of the color on the spectrum, and is represented by an angle of 0 degrees to 360 degrees. The saturation represents the vividness of the color. The value decreases as the color approaches gray, and the value increases as the color approaches the primary color.

また、手候補領域抽出部14は、肌色候補領域選定部13により選定された各肌色候補領域A〜Dに対し、色相分布(ヒストグラム)h(k)及び彩度分布(ヒストグラム)s(k)(k=0,1,2,...,K)をそれぞれ(1)式及び(2)式により計算する。 The hand candidate area extraction unit 14 also outputs a hue distribution (histogram) h m (k) and a saturation distribution (histogram) s m (for each skin color candidate area A to D selected by the skin color candidate area selection unit 13. k) (k = 0, 1, 2,..., K) are calculated by the equations (1) and (2), respectively.

Figure 2007052609
Figure 2007052609

ここで、Rは各肌色補領域を示し、m(m=1,2,...,M)は、肌色候補領域の数である。また、g(Hue(i,j))及びg(Sta(i,j))は、それぞれ色相画像Hue(i,j)及び彩度画像Sta(i,j)の画素(i,j)における輝度値を示す。また、δ[x]は、xが0の場合1であり、xが0でない場合0である。 Here, R m represents each skin color complementary region, and m (m = 1, 2,..., M) is the number of skin color candidate regions. Also, g (Hue (i, j)) and g (Sta (i, j)) are respectively in the pixel (i, j) of the hue image Hue (i, j) and the saturation image Sta (i, j). Indicates the luminance value. Further, δ [x] is 1 when x is 0, and 0 when x is not 0.

上記(1)式を用いて、例えば、図6に示す色相画像の肌色候補領域Bの色相分布h(k)を計算すると、図7に示すようなヒストグラムを得ることができる。また、上記(2)式を用いて、例えば、図8に示す彩度画像の肌色候補領域Bの彩度分布s(k)を計算すると、図9に示すようなヒストグラムを得ることができる。 For example, when the hue distribution h m (k) of the skin color candidate region B of the hue image shown in FIG. 6 is calculated using the above equation (1), a histogram as shown in FIG. 7 can be obtained. Moreover, for example, when the saturation distribution s m (k) of the skin color candidate region B of the saturation image shown in FIG. 8 is calculated using the above equation (2), a histogram as shown in FIG. 9 can be obtained. .

図10及び図11は、上述のヒストグラムから検出された肌色の色相領域及び彩度領域の例である。また、図12及び図13は、それぞれ肌色の色相領域及び彩度領域に基づいて手候補領域が検出された色相画像及び彩度画像である。   FIGS. 10 and 11 are examples of flesh color hue regions and saturation regions detected from the above histogram. FIGS. 12 and 13 are a hue image and a saturation image in which hand candidate areas are detected based on the hue area and the saturation area of the skin color, respectively.

各肌色候補領域A〜Dの色相分布h(k)及び彩度分布s(k)から、手候補領域抽出部14は図10及び図11に示すように最も画素数が多い色相の値h_Level及び彩度の値s_Level並びにその分散h_var、s_varを検出する。 From the hue distribution h m (k) and the saturation distribution s m (k) of each skin color candidate area A to D, the hand candidate area extraction unit 14 has a hue value with the largest number of pixels as shown in FIGS. The h_Level and the saturation value s_Level and their variances h_var and s_var are detected.

ここで、肌色は色相の値が低いため、各肌色候補領域A〜Dの色相画像Hue(i,j)における色相の値がh_Level±h_var以内で、且つ、その値が肌色の色相初期値H_Initialより小さい画素の領域を肌色の色相領域(画像)Hm(i,j)とする。これにより、図12に示すような各肌色候補領域A〜Dの肌色の色相領域Hm(i,j)が求められる。なお、図12に示す肌色候補領域A〜Dにおいて肌色の色相領域Hm(i,j)は黒色で示している。   Here, since the flesh color has a low hue value, the hue value in the hue image Hue (i, j) of each flesh color candidate area A to D is within h_Level ± h_var, and the value is the flesh initial hue value H_Initial. The smaller pixel area is defined as a flesh-colored hue area (image) Hm (i, j). As a result, the skin tone area Hm (i, j) of each skin color candidate area A to D as shown in FIG. 12 is obtained. In the skin color candidate areas A to D shown in FIG. 12, the skin color hue area Hm (i, j) is shown in black.

また、肌色は彩度の値が高いため、各肌色候補領域A〜Dの彩度画像Sta(i,j)における彩度の値がs_Level±s_var以内で、且つ、その値が肌色の彩度初期値S_Initialより大きい画素の領域を肌色の彩度領域(画像)Sm(i,j)とする。これにより、図13に示すような各肌色候補領域A〜Dの肌色の彩度領域Sm(i,j)が求められる。なお、図13に示す肌色候補領域A〜Dにおいて肌色の彩度領域Sm(i,j)は白色で示している。   Further, since the skin color has a high saturation value, the saturation value in the saturation image Sta (i, j) of each skin color candidate region A to D is within s_Level ± s_var, and the value is the saturation of the skin color. A pixel region larger than the initial value S_Initial is defined as a skin color saturation region (image) Sm (i, j). Thus, the skin color saturation region Sm (i, j) of each skin color candidate region A to D as shown in FIG. 13 is obtained. In the skin color candidate areas A to D shown in FIG. 13, the skin color saturation area Sm (i, j) is shown in white.

そして、肌色の色相領域Hm(i,j)と彩度領域Sm(i,j)とが重なる画素領域を手候補領域Rmとする。すなわち、図14に示す手候補領域のように各肌色候補領域A〜Dにおいて図12に示す黒色の領域と図13に示す白色の領域とが重なる領域である。   A pixel region where the skin tone region Hm (i, j) and the saturation region Sm (i, j) overlap is defined as a hand candidate region Rm. That is, like the hand candidate area shown in FIG. 14, in each skin color candidate area A to D, the black area shown in FIG. 12 and the white area shown in FIG. 13 overlap.

このように色相と彩度とが類似する画素が最も大きい領域、つまり主導的な色を示す領域を手の候補領域として抽出することにより、人の肌色の個人差や実環境での照明変化に対するロバスト性を高めることができる。   In this way, by extracting the region where the pixels with the same hue and saturation are the largest, that is, the region indicating the dominant color, as the candidate region of the hand, it is possible to cope with individual differences in human skin color and lighting changes in the real environment. Robustness can be improved.

形状複雑度算出部15は、手候補領域抽出部14で抽出された手候補領域Rmに対し、例えば、その領域の面積(画素数)及び周辺長に基づいて手候補領域の複雑度を計算する。   The shape complexity calculation unit 15 calculates the complexity of the hand candidate region based on, for example, the area (number of pixels) and the peripheral length of the hand candidate region Rm extracted by the hand candidate region extraction unit 14. .

Figure 2007052609
Figure 2007052609

ここで、Lは手の候補領域の周囲長、Sは手候補領域の面積及びδは形状の複雑度を示す。   Here, L is the perimeter of the hand candidate region, S is the area of the hand candidate region, and δ is the complexity of the shape.

手領域検出部16は、形状複雑度算出部15で算出された各手候補領域の形状の複雑度を、予め決められた手の形状に応じた複雑度と比較評価する。図15は、手の形状に応じた複雑度の算出(学習)結果例である。例えば、指が5本開いている状態、つまり手が開いている状態(K1)の形状複雑度は、手が開いていない状態(K6)の形状複雑度と大きく違う。これを考慮して経験的に手領域を検出するための閾値を決める。例えば、頭部領域が手領域として検出されないように、4本以上の指が開いている状態(δ>0.9)の形状複雑度を手領域の閾値とする。そして、手候補領域の複雑度が決められた閾値より大きい場合を手領域として検出する。   The hand region detection unit 16 compares and evaluates the complexity of the shape of each hand candidate region calculated by the shape complexity calculation unit 15 with the complexity corresponding to a predetermined hand shape. FIG. 15 is an example of the calculation (learning) result of the complexity according to the hand shape. For example, the shape complexity in the state where five fingers are open, that is, the state where the hand is open (K1) is significantly different from the shape complexity in the state where the hand is not open (K6). Considering this, a threshold value for detecting the hand region is determined empirically. For example, the shape complexity in a state where four or more fingers are open (δ> 0.9) is set as the threshold value of the hand region so that the head region is not detected as the hand region. A case where the complexity of the hand candidate area is larger than a predetermined threshold is detected as a hand area.

図16は、5本の指が開いていない状態、つまり、手が開いていない状態の画像を示し、図17は、そのときの手候補領域の形状複雑度を示す。この図16に示す画像が入力された場合、手領域検出部16は、手候補領域b、cの複雑度を閾値と比較する。そして、例えば、複雑度の閾値をδ=0.9と設定した場合、手候補領域b及び手候補領域cとも複雑度が閾値よりも低いため、手領域検出部16はこれらを手領域として検出しない。   FIG. 16 shows an image in which five fingers are not opened, that is, a hand is not opened, and FIG. 17 shows the shape complexity of the hand candidate region at that time. When the image shown in FIG. 16 is input, the hand region detection unit 16 compares the complexity of the hand candidate regions b and c with a threshold value. For example, when the complexity threshold is set as δ = 0.9, the complexity of both the hand candidate area b and the hand candidate area c is lower than the threshold, so the hand area detection unit 16 detects these as hand areas. do not do.

また、図18は、人差し指と中指の2本の指が開いている状態を示し、図19は、そのときの手候補領域の形状複雑度を示す。この図18に示す2本の指が開いている状態の画像が入力され、複雑度の閾値をδ=0.9と設定した場合も、手候補領域b及び手候補領域cとも複雑度が閾値よりも低いため、手領域検出部16はこれらを手領域として検出しない。   FIG. 18 shows a state in which the two fingers, the index finger and the middle finger, are open, and FIG. 19 shows the shape complexity of the hand candidate region at that time. Even when an image with two fingers open as shown in FIG. 18 is input and the complexity threshold is set to δ = 0.9, the complexity of both the hand candidate area b and the hand candidate area c is the threshold. Therefore, the hand region detection unit 16 does not detect these as hand regions.

また、図20は、5本の指が全て開いている状態、つまり手が開いている状態を示し、図21は、そのときの手候補領域の形状複雑度を示す。この図20に示すように手が開いている状態の画像が入力され、手候補領域の形状の複雑度の閾値をδ=0.9と設定した場合、手候補領域cの複雑度は閾値より小さいが手候補領域bの複雑度は閾値より大きいため、手領域検出部16は、手候補領域bを手領域として検出する。   20 shows a state where all five fingers are open, that is, a state where the hand is open, and FIG. 21 shows the shape complexity of the hand candidate region at that time. As shown in FIG. 20, when an image with an open hand is input and the threshold value of the complexity of the shape of the hand candidate region is set to δ = 0.9, the complexity of the hand candidate region c is greater than the threshold value. Since the complexity of the hand candidate area b is smaller than the threshold value, the hand area detection unit 16 detects the hand candidate area b as a hand area.

なお、上述のように手候補領域の面積及び周辺長に基づいて複雑度を計算することに限らず、図22に示すように、手候補領域の中心を検出し、中心からの距離に基づいて計算してもよい。この場合、式(4)のように距離関数d(θ)を定義すればよい。   Note that, as described above, not only the complexity is calculated based on the area and the peripheral length of the hand candidate area, but the center of the hand candidate area is detected based on the distance from the center as shown in FIG. You may calculate. In this case, the distance function d (θ) may be defined as in equation (4).

Figure 2007052609
Figure 2007052609

図23は、式(4)による距離関数のグラフである。ここで、距離関数d(θ)の極大値が指の形状を示す閾値(Thd)以上である場合、その極大値の数を指の本数と推定することができる。   FIG. 23 is a graph of the distance function according to Equation (4). Here, when the maximum value of the distance function d (θ) is equal to or greater than the threshold (Thd) indicating the shape of the finger, the number of maximum values can be estimated as the number of fingers.

手領域検出部16は、図23に示すように閾値(Thd)以上の極大値の数に応じて手領域を検出する。例えば、閾値(Thd)以上の極大値の数の閾値を4、つまり指が4本以上検出された場合、その手候補領域を手領域として検出する。   As shown in FIG. 23, the hand region detection unit 16 detects a hand region according to the number of local maximum values equal to or greater than a threshold value (Thd). For example, when the threshold of the number of maximum values equal to or greater than the threshold (Thd) is 4, that is, when four or more fingers are detected, the hand candidate area is detected as a hand area.

また、図23に示すようにh(k)(k=1,2,...,K)を定義し、h(k)がある閾値以上の場合、指と推定するようにしてもよい。この場合、手領域検出部16は閾値以上のh(k)に応じて手領域を検出する。例えば、閾値を5とすると指が5本検出された場合、その手候補領域を手領域として検出することとなる。なお、これらの指を検出するための閾値や手領域を検出するための閾値は、学習によって決めてもよい。   Also, as shown in FIG. 23, h (k) (k = 1, 2,..., K) may be defined, and if h (k) is equal to or greater than a certain threshold value, it may be estimated as a finger. In this case, the hand region detection unit 16 detects the hand region according to h (k) equal to or greater than the threshold value. For example, when the threshold value is 5, when five fingers are detected, the hand candidate area is detected as a hand area. Note that the threshold for detecting these fingers and the threshold for detecting the hand region may be determined by learning.

このように人の統計的肌色特徴に基づいた肌色の候補領域を選定し、それらの領域内の画像分布特性による手の候補領域を抽出し、この手の候補領域の形状複雑度を評価することにより、人の肌色の個人差や照明変化によることなく、実環境でもロバストな手領域検出を行うことができる。   In this way, selecting candidate skin color regions based on human statistical skin color characteristics, extracting hand candidate regions based on image distribution characteristics within those regions, and evaluating the shape complexity of these hand candidate regions Thus, robust hand region detection can be performed even in a real environment without depending on individual differences in human skin color or lighting changes.

また、形状複雑度の評価によって、手の開いている時の領域特徴とその他の領域特徴とを区別することができるため、ロバストな手領域検出を行うことができる。   In addition, since the region feature when the hand is open can be distinguished from other region features by evaluating the shape complexity, robust hand region detection can be performed.

なお、本実施の形態では、統計的肌色特徴に基づいた肌色の候補領域を選定し、それらの領域内の画像分布特性による手の候補領域を抽出することとしたが、これに限られるものではなく、肌色の候補領域選定と手候補領域抽出とを統合し、RGB処理や画像分布処理等を任意の順番で行い手候補領域を絞るようにしてもよい。   In the present embodiment, skin color candidate regions based on statistical skin color features are selected, and hand candidate regions based on image distribution characteristics in those regions are extracted. However, the present invention is not limited to this. Alternatively, skin candidate region selection and hand candidate region extraction may be integrated, and the hand candidate regions may be narrowed down by performing RGB processing, image distribution processing, and the like in an arbitrary order.

図24は、第2の実施形態における手領域検出装置の構成を示すブロック図である。この実施の形態の手領域検出装置20は、実環境のロバスト性をより高めるために、例えば、フレーム間の差分情報を用いて、検出された手の領域に対して、さらに動いたもの(領域)を正しい手領域として決定する。なお、第1の実施の形態における手領域検出装置10と同一な構成には同一の符号を付し、説明を省略する。   FIG. 24 is a block diagram illustrating a configuration of a hand region detection device according to the second embodiment. In order to further improve the robustness of the real environment, the hand region detection device 20 of this embodiment further moves with respect to the detected hand region using, for example, difference information between frames (region). ) As the correct hand area. In addition, the same code | symbol is attached | subjected to the structure same as the hand region detection apparatus 10 in 1st Embodiment, and description is abbreviate | omitted.

この手領域検出装置20は、撮像部11と、撮像部11で撮像された画像を取り込む画像取込部12と、画像取込部12で取り込んだ画像から肌色の候補領域を選定する肌色候補領域選定部13と、肌色候補選定部13で選定された肌色の候補領域から手候補領域を抽出する手候補領域抽出部14と、手候補領域抽出部14で抽出された手候補領域の形状の複雑度を算出する形状複雑度算出部15と、形状複雑度算出部15で算出された複雑度に基づいて手領域を検出する手領域検出部16と、手領域検出部16で検出された手領域を含む画像を所定フレーム分遅延する遅延回路部21と、上記遅延回路部21で所定フレーム分遅延された画像と現フレームの画像とを比較し動き領域を検出する動き領域検出部22と、上記動き領域検出部22で検出された動き領域に基づいて手領域を決定する手領域決定部23とを備えて構成される。   The hand region detection device 20 includes an imaging unit 11, an image capturing unit 12 that captures an image captured by the imaging unit 11, and a skin color candidate region that selects a skin color candidate region from the image captured by the image capturing unit 12. The selection unit 13, the hand candidate region extraction unit 14 that extracts a hand candidate region from the skin color candidate region selected by the skin color candidate selection unit 13, and the complexity of the shape of the hand candidate region extracted by the hand candidate region extraction unit 14 A shape complexity calculating unit 15 for calculating the degree, a hand region detecting unit 16 for detecting a hand region based on the complexity calculated by the shape complexity calculating unit 15, and a hand region detected by the hand region detecting unit 16 A delay circuit unit 21 that delays an image including a predetermined frame, a motion region detection unit 22 that compares the image delayed by a predetermined frame by the delay circuit unit 21 with an image of the current frame, and detects a motion region; Motion region detector 2 In constructed and a hand region determining unit 23 for determining the hand region based on the detected motion region.

遅延回路部21は、入力された所定フレーム分の画像を一時的に保持するバッファを有しており、例えば入力された画像と、それよりも1フレーム前の画像とを動き領域検出部22に出力する。   The delay circuit unit 21 has a buffer that temporarily holds an input image for a predetermined frame. For example, the delay circuit unit 21 receives the input image and an image one frame before that in the motion region detection unit 22. Output.

動き領域検出部22は、例えば、入力された1フレーム分異なる2つの画像を比較し動き領域を検出する。ここで、動き領域検出部22は、手領域検出部16で検出された手領域近傍の動きを検出することが好ましい。   For example, the motion region detection unit 22 compares two input images that differ by one frame and detects a motion region. Here, it is preferable that the motion region detection unit 22 detects the motion in the vicinity of the hand region detected by the hand region detection unit 16.

手領域決定部23は、動き領域検出部22で検出された動き領域が手領域検出部16で検出された手領域か否を判別し、検出された動き領域が手領域である場合のみ、その領域を手領域として決定する。なお、手領域検出部16で検出された手領域が動き領域検出部23で検出された動き領域であるか否かを判別し、検出された手領域が動き領域である場合、手領域として決定してもよい。   The hand region determination unit 23 determines whether or not the motion region detected by the motion region detection unit 22 is a hand region detected by the hand region detection unit 16, and only when the detected motion region is a hand region. The area is determined as a hand area. It is determined whether or not the hand region detected by the hand region detection unit 16 is a motion region detected by the motion region detection unit 23. If the detected hand region is a motion region, the hand region is determined as a hand region. May be.

続いて、第2の実施の形態における手領域検出装置20の動作について説明する。   Next, the operation of the hand region detection device 20 in the second embodiment will be described.

手領域検出装置20は第1の実施の形態における手領域検出装置10と同様にして手領域検出部16で手領域を検出するため、そこまでの詳細な説明を省略する。手領域検出装置20は、上述したように入力画像から人の統計的肌色特徴に基づいた肌色の候補領域を選定し、それらの領域内の画像分布特性による手の候補領域を抽出し、この手の候補領域の形状複雑度に基づいて手領域を検出する。手領域が検出された画像は遅延回路部21に入力される。   Since the hand region detection device 20 detects the hand region by the hand region detection unit 16 in the same manner as the hand region detection device 10 in the first embodiment, a detailed description thereof will be omitted. As described above, the hand region detection device 20 selects a skin color candidate region based on a person's statistical skin color feature from the input image, extracts a hand candidate region based on image distribution characteristics in these regions, and extracts the hand region. The hand region is detected based on the shape complexity of the candidate region. The image in which the hand area is detected is input to the delay circuit unit 21.

図25及び図26は、遅延回路部21から出力される撮像時刻が異なる画像例をそれぞれ示すものである。また、図27は、遅延回路21から出力された図25及び図26の画像に基づいて動き領域を検出した画像例である。   25 and 26 show examples of images with different imaging times output from the delay circuit unit 21, respectively. FIG. 27 is an image example in which a motion region is detected based on the images of FIGS. 25 and 26 output from the delay circuit 21.

遅延回路部21は、入力された画像をバッファに保持し、例えば図25に示すような画像Im(t)と、図26に示すような画像Im(t+1)を動き領域検出部22に出力する。   The delay circuit unit 21 holds the input image in a buffer, and outputs, for example, an image Im (t) as shown in FIG. 25 and an image Im (t + 1) as shown in FIG. .

動き領域検出部22は、入力された画像Im(t)と画像Im(t+1)とから、例えば、フレーム間差分処理によって動き情報を検出する。これにより、図27に示すように、手部分と顔部分を検出することができる。   The motion region detection unit 22 detects motion information from the input image Im (t) and the image Im (t + 1), for example, by inter-frame difference processing. Thereby, as shown in FIG. 27, a hand part and a face part can be detected.

手領域決定部23は、検出された動き領域が手領域検出部16で検出された手領域か否かを判別する。例えば、図27に示すように動き領域が検出された手部分と顔部分のうち、手領域検出部16で検出された手領域である手部分を最終的な手領域として決定する(図28参照)。   The hand region determination unit 23 determines whether or not the detected motion region is a hand region detected by the hand region detection unit 16. For example, as shown in FIG. 27, the hand part that is the hand area detected by the hand area detection unit 16 is determined as the final hand area among the hand part and the face part in which the motion area is detected (see FIG. 28). ).

図29は、肌色候補領域の選定例を示し、図30は、手領域の検出例を示す。上述した動き情報を用いることにより、図29に示すように肌色候補選定部13で選定された肌色候補領域E、F、G、Hに示す手領域からポスターに描写された肌色候補領域G、Hの手領域を除くことができ、図30のように確実に最終的な手領域を検出することができる。   FIG. 29 shows an example of selecting a skin color candidate area, and FIG. 30 shows an example of detecting a hand area. By using the motion information described above, as shown in FIG. 29, the skin color candidate regions G and H depicted on the poster from the hand regions shown in the skin color candidate regions E, F, G, and H selected by the skin color candidate selection unit 13 The hand region can be removed, and the final hand region can be reliably detected as shown in FIG.

一方、動き情報を用いなかった場合、図31及び図32に示すように、肌色候補領域E、F、G、Hから、肌色候補領域E、G内の手領域を最終的に検出してしまう。つまり、ポスターに描写された手も手領域として検出してしまう。   On the other hand, when the motion information is not used, as shown in FIG. 31 and FIG. 32, the hand regions in the skin color candidate regions E and G are finally detected from the skin color candidate regions E, F, G, and H. . That is, the hand depicted on the poster is also detected as a hand region.

なお、上述した第2の実施の形態では、複雑度に基づいて手領域を検出した後、動き領域を検出し、手領域と動き領域とから最終的な手領域を決定することとしたが、画像取込部12からの入力画像から動き領域を検出し、手領域を決定してもよい。   In the second embodiment described above, after detecting the hand region based on the complexity, the motion region is detected, and the final hand region is determined from the hand region and the motion region. A hand region may be determined by detecting a motion region from an input image from the image capturing unit 12.

図33は、第3の実施形態における手領域検出装置の構成を示すブロック図である。この実施の形態の手領域検出装置30は、実環境のロバスト性をより高めるために、例えば、ステレオカメラを用いて、距離情報を推定し、所定距離以上にある肌色候補領域を背景として除去する。なお、第1の実施の形態における手領域検出装置10と同一な構成には同一の符号を付し、説明を省略する。   FIG. 33 is a block diagram illustrating a configuration of a hand region detection device according to the third embodiment. In order to further improve the robustness of the real environment, the hand region detection device 30 of this embodiment estimates distance information using, for example, a stereo camera, and removes skin color candidate regions that are more than a predetermined distance from the background. . In addition, the same code | symbol is attached | subjected to the structure same as the hand region detection apparatus 10 in 1st Embodiment, and description is abbreviate | omitted.

この手領域検出装置30は、撮像部11と、撮像部11で撮像された画像を取り込む画像取込部12と、画像取込部12で取り込んだ画像から肌色の候補領域を選定する肌色候補領域選定部13と、肌色候補選定部13で選定された肌色の候補領域から手候補領域を抽出する手候補領域抽出部14と、手候補領域抽出部14で抽出された手候補領域の形状の複雑度を算出する形状複雑度算出部15と、形状複雑度算出部15で算出された複雑度に基づいて手領域を検出する手領域検出部16と、基準撮像部31と、撮像部11と基準撮像部32とに基づいて画像内の被写体の距離情報を取得する距離情報取得部32と、手領域検出部16で検出された手領域と距離情報取得部32で取得した距離情報とに基づいて手領域を決定する手領域決定部33とを備えて構成される。   The hand region detection device 30 includes an imaging unit 11, an image capturing unit 12 that captures an image captured by the imaging unit 11, and a skin color candidate region that selects a skin color candidate region from the image captured by the image capturing unit 12. The selection unit 13, the hand candidate region extraction unit 14 that extracts a hand candidate region from the skin color candidate region selected by the skin color candidate selection unit 13, and the complexity of the shape of the hand candidate region extracted by the hand candidate region extraction unit 14 A shape complexity calculating unit 15 for calculating the degree, a hand region detecting unit 16 for detecting a hand region based on the complexity calculated by the shape complexity calculating unit 15, a reference imaging unit 31, an imaging unit 11, and a reference Based on the distance information acquisition unit 32 that acquires the distance information of the subject in the image based on the imaging unit 32, the hand region detected by the hand region detection unit 16, and the distance information acquired by the distance information acquisition unit 32. Hand region determination to determine hand region Configured with a 33.

基準撮像部31は、CCD等の撮像素子を有するカメラで構成され、撮像部11を用いてステレオカメラとして構成される。なお、さらに複数のカメラでステレオカメラを構成することが好ましい。   The reference imaging unit 31 is configured by a camera having an imaging element such as a CCD, and is configured as a stereo camera using the imaging unit 11. In addition, it is preferable to further configure a stereo camera with a plurality of cameras.

距離情報取得部32は、撮像部11及び基準撮像部31を用いて、例えば、「ステレオ法」に基づき対象物との距離を測定する。ここで言うステレオ法とは、いわゆる「三角測量」の原理により所定の位置関係を持つ複数のカメラの視点(投影中心)から撮像した画像を用いて、シーンすなわち撮像画像中の各点の3次元空間内の位置を推定し、投影中心との距離を測定する。   The distance information acquisition unit 32 uses the imaging unit 11 and the reference imaging unit 31 to measure the distance to the object based on the “stereo method”, for example. The stereo method referred to here is a three-dimensional view of each point in a scene, that is, a captured image using images captured from the viewpoints (projection centers) of a plurality of cameras having a predetermined positional relationship based on the principle of so-called “triangulation”. Estimate the position in space and measure the distance to the projection center.

手領域決定部33は、手領域検出部16で検出された手領域を距離情報取得部32で取得された距離情報に基づいて最終的な手領域を決定する。例えば、手領域検出部16で検出された手領域が所定距離以下又は所定距離以上若しくは所定の距離範囲内に属するか否かに応じて最終的な手領域を決定する。   The hand region determination unit 33 determines the final hand region based on the distance information acquired by the distance information acquisition unit 32 for the hand region detected by the hand region detection unit 16. For example, the final hand region is determined according to whether the hand region detected by the hand region detection unit 16 is equal to or smaller than a predetermined distance, equal to or greater than a predetermined distance, or within a predetermined distance range.

続いて、第2の実施の形態における手領域検出装置30の動作について説明する。   Next, the operation of the hand region detection device 30 in the second embodiment will be described.

手領域検出装置20は第1の実施の形態における手領域検出装置10と同様にして手領域検出部16で手領域を検出するため、そこまでの説明を省略する。すなわち、入力画像から人の統計的肌色特徴に基づいた肌色の候補領域を選定し、それらの領域内の画像分布特性による手の候補領域を抽出し、この手の候補領域の形状複雑度に基づいて手領域を検出する。   Since the hand region detection device 20 detects the hand region by the hand region detection unit 16 in the same manner as the hand region detection device 10 in the first embodiment, the description up to that point is omitted. In other words, skin color candidate regions based on human statistical skin color features are selected from the input image, hand candidate regions based on image distribution characteristics in those regions are extracted, and based on the shape complexity of the hand candidate regions To detect the hand area.

図34〜図38は、距離情報を用いて入力画像から肌色候補を選定する際の画像例を示す図である。図34に示すように二人の人物が手を広げている画像が画像取込部12に入力された場合、肌色候補領域選定部13により肌色候補領域I、J、K、Lが選定される(図35参照)。そして、手領域検出部16は、図36に示すように形状複雑度に基づいて肌色候補領域I、K内の手領域を検出する。   34 to 38 are diagrams illustrating examples of images when skin color candidates are selected from an input image using distance information. As shown in FIG. 34, when an image in which two persons are spreading their hands is input to the image capturing unit 12, the skin color candidate regions I, J, K, and L are selected by the skin color candidate region selection unit 13. (See FIG. 35). Then, the hand region detection unit 16 detects the hand regions in the skin color candidate regions I and K based on the shape complexity as shown in FIG.

また、距離情報取得部32は、撮像部11、31で撮像された画像に基づいて、例えば撮像部11から被写体までの距離情報を取得し、手領域決定部33に出力する。手領域決定部33は手候補領域抽出部14で抽出された手候補領域i、j、k、lから、図37に示すように距離情報に応じた色の濃淡に基づいて手領域を決定する。図38は、撮像部11により近い位置の人物の手領域を検出し、それよりも遠い位置の人物の手領域を除去したものである。   The distance information acquisition unit 32 acquires distance information from the imaging unit 11 to the subject, for example, based on the images captured by the imaging units 11 and 31, and outputs the distance information to the hand region determination unit 33. The hand region determination unit 33 determines the hand region from the hand candidate regions i, j, k, and l extracted by the hand candidate region extraction unit 14 based on the color shading according to the distance information as shown in FIG. . FIG. 38 shows a person hand region located closer to the imaging unit 11 and a person hand region farther than that being removed.

このように距離情報を用いることにより、後方又は一定の距離にいる人物の手のみを検出することができる。   Thus, by using the distance information, it is possible to detect only the hand of a person behind or at a certain distance.

なお、上述した第3の実施の形態では、複雑度に基づいて手領域を検出した後、距離情報に基づいて最終的な手領域を決定することとしたが、距離情報に基づいて画像取込部12からの入力画像から手領域を検出する範囲を決定し、その範囲内で手領域を決定するようにしてもよい。   In the above-described third embodiment, after the hand region is detected based on the complexity, the final hand region is determined based on the distance information. However, the image capture is performed based on the distance information. A range for detecting the hand region may be determined from the input image from the unit 12, and the hand region may be determined within the range.

本発明の第1の実施形態における手領域検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the hand region detection apparatus in the 1st Embodiment of this invention. 入力画像例を示す図である。It is a figure which shows the example of an input image. RGB情報による画像処理例を示す図である。It is a figure which shows the example of an image process by RGB information. 肌色候補領域の選定例を示す図である。It is a figure which shows the example of selection of a skin color candidate area | region. 肌色候補領域が選定された画像例を示す図である。It is a figure which shows the example of an image from which the skin color candidate area | region was selected. 色相による画像処理例を示す図である。It is a figure which shows the image processing example by a hue. 肌色候補領域の色相分布例を示す図である。It is a figure which shows the hue distribution example of a skin color candidate area | region. 彩度による画像処理例を示す図である。It is a figure which shows the image processing example by saturation. 肌色候補領域の彩度分布例を示す図である。It is a figure which shows the saturation distribution example of a skin color candidate area | region. 肌色の色相領域の検出を説明するための図である。It is a figure for demonstrating the detection of the hue area | region of a skin color. 肌色の彩度領域の検出を説明するための図である。It is a figure for demonstrating the detection of the saturation area | region of a skin color. 色相画像における色相領域の検出例を示す図である。It is a figure which shows the example of a detection of the hue area | region in a hue image. 彩度画像における色相領域の検出例を示す図である。It is a figure which shows the example of a detection of the hue area | region in a saturation image. 手候補領域の検出例を示す図である。It is a figure which shows the example of detection of a hand candidate area | region. 手の形状に応じた複雑度を説明するための図である。It is a figure for demonstrating the complexity according to the shape of a hand. 手を閉じた場合の入力画像例を示す図である。It is a figure which shows the example of an input image at the time of closing a hand. 手を閉じた場合の形状複雑度の算出結果を示す図である。It is a figure which shows the calculation result of the shape complexity at the time of closing a hand. 指を2本開いた場合の入力画像例を示す図である。It is a figure which shows the example of an input image at the time of opening two fingers. 指を2本開いた場合の形状複雑度の算出結果を示す図である。It is a figure which shows the calculation result of the shape complexity at the time of opening two fingers. 手を開いた場合の入力画像例を示す図である。It is a figure which shows the example of an input image at the time of opening a hand. 手を開いた場合の形状複雑度の算出結果を示す図である。It is a figure which shows the calculation result of the shape complexity at the time of opening a hand. 手候補領域の中心からの距離に基づく形状複雑度を説明するための図である。It is a figure for demonstrating the shape complexity based on the distance from the center of a hand candidate area | region. 中心からの距離の算出結果を示す図である。It is a figure which shows the calculation result of the distance from a center. 本発明の第2の実施形態における手領域検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the hand region detection apparatus in the 2nd Embodiment of this invention. 時刻tにおける画像例を示す図である。It is a figure which shows the example of an image in the time t. 時刻t+1における画像例を示す図である。It is a figure which shows the example of an image in the time t + 1. 動き領域の検出例を示す図である。It is a figure which shows the example of a detection of a motion area | region. 動き領域から手領域を検出した例を示す図である。It is a figure which shows the example which detected the hand area | region from the movement area | region. 肌色候補領域の検出例を示す図である。It is a figure which shows the example of detection of a skin color candidate area | region. 手領域の決定例を示す図である。It is a figure which shows the example of determination of a hand area | region. 動き領域の検出を行わなかった場合の肌色候補領域の検出例を示す図である。It is a figure which shows the example of detection of the skin color candidate area | region at the time of not detecting a motion area | region. 動き領域の検出を行わなかった場合の手領域検出結果例を示す図である。It is a figure which shows the example of a hand area | region detection result at the time of not detecting a movement area | region. 本発明の第3の実施形態における手領域検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the hand area | region detection apparatus in the 3rd Embodiment of this invention. 入力画像例を示す図である。It is a figure which shows the example of an input image. 肌色候補領域の検出例を示す図である。It is a figure which shows the example of detection of a skin color candidate area | region. 手領域の検出結果例を示す図である。It is a figure which shows the example of a detection result of a hand area | region. 距離情報により手候補領域の距離を推定した例を示す図である。It is a figure which shows the example which estimated the distance of the hand candidate area | region from distance information. 距離情報に基づく手領域の検出結果を示す図である。It is a figure which shows the detection result of the hand area | region based on distance information.

符号の説明Explanation of symbols

10 手領域検出装置、11 撮像部、12 画像取込部、13 肌色候補領域選定部、14 手候補領域抽出部、15 形状複雑度算出部、16 手領域検出部、20 手領域検出装置、21 遅延回路部、22 動き領域検出部、23 手領域決定部、30 手領域検出装置、31 基準撮像部、32 距離情報取得部、33 手領域決定部 DESCRIPTION OF SYMBOLS 10 hand area detection apparatus, 11 imaging part, 12 image capture part, 13 skin color candidate area selection part, 14 hand candidate area extraction part, 15 shape complexity calculation part, 16 hand area detection part, 20 hand area detection apparatus, 21 Delay circuit unit, 22 motion region detection unit, 23 hand region determination unit, 30 hand region detection device, 31 reference imaging unit, 32 distance information acquisition unit, 33 hand region determination unit

Claims (9)

入力画像から人の統計的肌色特徴に基づいて手の候補領域を検出する手候補検出手段と、
上記手候補検出手段で抽出された手の候補領域の形状複雑度を算出する形状複雑度算出手段と、
上記形状複雑度算出手段で算出された形状複雑度に基づいて上記手の候補領域から手領域を検出する手領域検出手段と
を備えることを特徴とする手領域検出装置。
Hand candidate detection means for detecting a hand candidate region based on a person's statistical skin color feature from an input image;
Shape complexity calculating means for calculating the shape complexity of the hand candidate area extracted by the hand candidate detecting means;
A hand region detecting device comprising: a hand region detecting unit that detects a hand region from the candidate region of the hand based on the shape complexity calculated by the shape complexity calculating unit.
上記手候補検出手段は、上記入力画像から統計的RGB情報により肌色候補領域を選定し、当該肌色候補領域の画像分布特性に基づいて手の候補領域を検出すること特徴とする請求項1記載の手領域検出装置。   The hand candidate detecting means selects a skin color candidate area from the input image by statistical RGB information, and detects a hand candidate area based on an image distribution characteristic of the skin color candidate area. Hand area detection device. 上記手候補検出手段は、上記肌色候補領域の画像分布特性において画素数が最も多い色相領域及び彩度領域に基づいて手の候補領域を抽出すること特徴とする請求項2記載の手領域検出装置。   The hand region detection device according to claim 2, wherein the hand candidate detection means extracts a hand candidate region based on a hue region and a saturation region having the largest number of pixels in the image distribution characteristics of the skin color candidate region. . 上記形状複雑度算出手段は、上記手の候補領域の面積及び周辺長に基づいて上記形状複雑度を算出することを特徴とする請求項1記載の手領域検出装置。   2. The hand region detection apparatus according to claim 1, wherein the shape complexity calculating unit calculates the shape complexity based on an area and a peripheral length of the hand candidate region. 上記形状複雑度算出手段は、上記手の候補領域の中心からの距離に基づいて上記形状複雑度を算出することを特徴とする請求項1記載の手領域検出装置。   2. The hand region detection apparatus according to claim 1, wherein the shape complexity calculation unit calculates the shape complexity based on a distance from a center of the hand candidate region. 上記手領域検出手段で検出された手領域を含む画像から動き領域を検出する動き領域検出手段と、
上記動き領域検出手段で検出された動き領域に基づいて上記手領域から最終的な手領域を決定する手領域決定手段と
をさらに備えることを特徴とする請求項1記載の手領域検出装置。
A motion region detection means for detecting a motion region from an image including the hand region detected by the hand region detection means;
The hand region detection device according to claim 1, further comprising: a hand region determination unit that determines a final hand region from the hand region based on the motion region detected by the motion region detection unit.
所定の位置関係を持つ複数のカメラからの画像に基づいて入力画像の各画素の3次元空間内の位置を推定した距離情報を取得する距離情報取得手段と、
上記距離情報取得手段で取得された距離情報に基づいて上記手領域から最終的な手領域を決定する手領域決定手段と
をさらに備えることを特徴とする請求項1記載の手領域検出装置。
Distance information acquisition means for acquiring distance information obtained by estimating the position in the three-dimensional space of each pixel of the input image based on images from a plurality of cameras having a predetermined positional relationship;
The hand region detection device according to claim 1, further comprising: a hand region determination unit that determines a final hand region from the hand region based on the distance information acquired by the distance information acquisition unit.
入力画像から人の統計的肌色特徴に基づいて手の候補領域を検出する手候補検出工程と、
上記手候補検出工程で抽出された手の候補領域の形状複雑度を算出する形状複雑度算出工程と、
上記形状複雑度算出工程で算出された形状複雑度に基づいて上記手の候補領域から手領域を検出する手領域検出工程と
を有することを特徴とする手領域検出方法。
A hand candidate detection step of detecting a candidate region of a hand based on a person's statistical skin color feature from an input image;
A shape complexity calculation step of calculating the shape complexity of the candidate region of the hand extracted in the hand candidate detection step;
A hand region detecting step of detecting a hand region from the candidate region of the hand based on the shape complexity calculated in the shape complexity calculating step.
入力画像から手領域を検出する処理を実行させるプログラムにおいて、
上記入力画像から人の肌色特徴に基づいて手の候補領域を検出する手候補検出工程と、
上記手候補検出工程で抽出された手の候補領域の形状複雑度を算出する形状複雑度算出工程と、
上記形状複雑度算出工程で算出された形状複雑度に基づいて上記手の候補領域から手領域を検出する手領域検出工程と
を有することを特徴とするプログラム。
In a program that executes processing for detecting a hand area from an input image,
A hand candidate detection step of detecting a candidate region of a hand based on a human skin color feature from the input image;
A shape complexity calculation step of calculating the shape complexity of the candidate region of the hand extracted in the hand candidate detection step;
A hand region detecting step of detecting a hand region from the hand candidate region based on the shape complexity calculated in the shape complexity calculating step.
JP2005236876A 2005-08-17 2005-08-17 Hand area detection device, hand area detection method and program Withdrawn JP2007052609A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005236876A JP2007052609A (en) 2005-08-17 2005-08-17 Hand area detection device, hand area detection method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005236876A JP2007052609A (en) 2005-08-17 2005-08-17 Hand area detection device, hand area detection method and program

Publications (1)

Publication Number Publication Date
JP2007052609A true JP2007052609A (en) 2007-03-01

Family

ID=37917019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005236876A Withdrawn JP2007052609A (en) 2005-08-17 2005-08-17 Hand area detection device, hand area detection method and program

Country Status (1)

Country Link
JP (1) JP2007052609A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008250482A (en) * 2007-03-29 2008-10-16 Kyushu Institute Of Technology Method and system for mouse alternatve operation for projector image
JP2009015519A (en) * 2007-07-03 2009-01-22 Omron Corp Smoker detection device, smoker alarm system, smoker monitoring server, unextinguished cigarette alarm device, smoker detection method and smoker detection program
KR20100138602A (en) * 2009-06-25 2010-12-31 삼성전자주식회사 Apparatus and method for a real-time extraction of target's multiple hands information
JP2011086052A (en) * 2009-10-14 2011-04-28 Fujitsu Ltd Hand recognition device
WO2011093317A1 (en) * 2010-01-29 2011-08-04 新世代株式会社 Image processing apparatus, image processing method, computer program, recording medium, image processing module, and electronic apparatus
WO2013038734A1 (en) 2011-09-15 2013-03-21 オムロン株式会社 Gesture recognition device, electronic apparatus, gesture recognition device control method, control program, and recording medium
JP2016103242A (en) * 2014-11-28 2016-06-02 キヤノン株式会社 Image processing method, image processor and program
US9939909B2 (en) 2013-09-12 2018-04-10 Mitsubishi Electric Corporation Gesture manipulation device and method, program, and recording medium
US10002463B2 (en) 2015-05-25 2018-06-19 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium, for enabling accurate detection of a color
KR20190099259A (en) * 2016-12-22 2019-08-26 선전 쾅-츠 허종 테크놀로지 엘티디. How to get the target, device and robot

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008250482A (en) * 2007-03-29 2008-10-16 Kyushu Institute Of Technology Method and system for mouse alternatve operation for projector image
JP2009015519A (en) * 2007-07-03 2009-01-22 Omron Corp Smoker detection device, smoker alarm system, smoker monitoring server, unextinguished cigarette alarm device, smoker detection method and smoker detection program
KR20100138602A (en) * 2009-06-25 2010-12-31 삼성전자주식회사 Apparatus and method for a real-time extraction of target's multiple hands information
KR101581954B1 (en) * 2009-06-25 2015-12-31 삼성전자주식회사 Apparatus and method for a real-time extraction of target's multiple hands information
JP2011086052A (en) * 2009-10-14 2011-04-28 Fujitsu Ltd Hand recognition device
WO2011093317A1 (en) * 2010-01-29 2011-08-04 新世代株式会社 Image processing apparatus, image processing method, computer program, recording medium, image processing module, and electronic apparatus
WO2013038734A1 (en) 2011-09-15 2013-03-21 オムロン株式会社 Gesture recognition device, electronic apparatus, gesture recognition device control method, control program, and recording medium
US9939909B2 (en) 2013-09-12 2018-04-10 Mitsubishi Electric Corporation Gesture manipulation device and method, program, and recording medium
JP2016103242A (en) * 2014-11-28 2016-06-02 キヤノン株式会社 Image processing method, image processor and program
US10002463B2 (en) 2015-05-25 2018-06-19 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium, for enabling accurate detection of a color
KR20190099259A (en) * 2016-12-22 2019-08-26 선전 쾅-츠 허종 테크놀로지 엘티디. How to get the target, device and robot
KR102293163B1 (en) 2016-12-22 2021-08-23 선전 쾅-츠 허종 테크놀로지 엘티디. How to acquire a target, devices and robots

Similar Documents

Publication Publication Date Title
JP4682820B2 (en) Object tracking device, object tracking method, and program
JP2007052609A (en) Hand area detection device, hand area detection method and program
JP6482195B2 (en) Image recognition apparatus, image recognition method, and program
JP5297530B2 (en) Image processing apparatus and interface apparatus
TWI499966B (en) Interactive operation method of electronic apparatus
CN105930822A (en) Human face snapshot method and system
KR101303877B1 (en) Method and apparatus for serving prefer color conversion of skin color applying face detection and skin area detection
JP6007682B2 (en) Image processing apparatus, image processing method, and program
CN110264493A (en) A kind of multiple target object tracking method and device under motion state
JP4597391B2 (en) Facial region detection apparatus and method, and computer-readable recording medium
JP6579950B2 (en) Image analysis apparatus, program, and method for detecting person appearing in captured image of camera
JP3970877B2 (en) Tracking device and tracking method
JP6157165B2 (en) Gaze detection device and imaging device
US20120169860A1 (en) Method for detection of a body part gesture to initiate a web application
JP4728795B2 (en) Person object determination apparatus and person object determination program
KR101344851B1 (en) Device and Method for Processing Image
KR101923405B1 (en) System for tracking and modeling human faces using AAM with geometric transformation and method therefor
US20070223818A1 (en) Method and apparatus for predicting the accuracy of virtual Scene based on incomplete information in video
JP6467994B2 (en) Image processing program, image processing apparatus, and image processing method
JP2019135618A (en) Information processing apparatus, system, method of controlling information processing apparatus, and program
Duan et al. Detection of hand-raising gestures based on body silhouette analysis
JP4449483B2 (en) Image analysis apparatus, image analysis method, and computer program
JP5603258B2 (en) Detection apparatus and detection method
JP2017016592A (en) Main subject detection device, main subject detection method and program
Xie et al. Hand posture recognition using kinect

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20081104