JP2021517281A - Multi-gesture fine division method for smart home scenes - Google Patents

Multi-gesture fine division method for smart home scenes Download PDF

Info

Publication number
JP2021517281A
JP2021517281A JP2020515730A JP2020515730A JP2021517281A JP 2021517281 A JP2021517281 A JP 2021517281A JP 2020515730 A JP2020515730 A JP 2020515730A JP 2020515730 A JP2020515730 A JP 2020515730A JP 2021517281 A JP2021517281 A JP 2021517281A
Authority
JP
Japan
Prior art keywords
image
gesture
smart home
area
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020515730A
Other languages
Japanese (ja)
Other versions
JP6932402B2 (en
Inventor
暉 張
暉 張
迪 張
迪 張
海涛 趙
海涛 趙
雁飛 孫
雁飛 孫
洪波 朱
洪波 朱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Publication of JP2021517281A publication Critical patent/JP2021517281A/en
Application granted granted Critical
Publication of JP6932402B2 publication Critical patent/JP6932402B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本発明は、スマートホームシーン向けのマルチジェスチャー精分割方法を開示し、以下のステップを含む。S1)ジェスチャー画像Image0に対して前処理を行い、画像Image1を得る;S2)前処理後の画像Image1に対して肌色分割を行い、処理後の画像Image4を得る;S3)画像Image4において画像の最小結合矩形MBRを構築する;S4)画像Image4における非ジェスチャーエリアを非ジェスチャーエリア除外基準によって除外して、ジェスチャー画像Image5を取得する;S5)手の形状特徴に基づく腕冗長性除去アルゴリズムによって画像Image5を処理することによって、腕冗長性の除去を完了する。本発明は、ジェスチャーをローカルでインテリジェントに分割することができ、全体のプロセスとして迅速かつ正確であり、ジェスチャーに基づく人間対コンピュータインタラクションシステムの使用快適性を著しく改善する。【選択図】図3The present invention discloses a multi-gesture fine division method for a smart home scene, and includes the following steps. S1) Gesture image Image0 is preprocessed to obtain image Image1; S2) Preprocessed image Image1 is skin-colored and processed to obtain image Image4; S3) Image 4 is the minimum image. Construct a combined rectangular MBR; S4) Exclude the non-gesture area in the image Image4 by the non-gesture area exclusion criteria to obtain the gesture image Image5; S5) Image Image5 by the arm redundancy removal algorithm based on the shape feature of the hand. By processing, the removal of arm redundancy is completed. The present invention can intelligently divide gestures locally, is quick and accurate as a whole process, and significantly improves the usability of gesture-based human-computer interaction systems. [Selection diagram] Fig. 3

Description

本発明は、スマート認識方法に係り、具体的に、スマートホームの分野に属するスマートホームシーン向けのマルチジェスチャー精分割方法に係る。 The present invention relates to a smart recognition method, and specifically relates to a multi-gesture fine division method for a smart home scene belonging to the field of smart home.

ジェスチャー分割は、複雑な画像背景からジェスチャー情報を分割する技術を指す。ジェスチャー分割の質(正確性、完全性、冗長性)の良否は、ジェスチャーに基づく人間対コンピュータインタラクションシステムの識別および検出精度に重要な影響を及ぼす。 Gesture division refers to a technique for dividing gesture information from a complex image background. The quality of gesture partitioning (accuracy, integrity, redundancy) has a significant impact on the accuracy of gesture-based human-computer interaction systems identification and detection.

ホームシーン向けのリアルタイムのジェスチャー分割は、より複雑である。ユーザのジェスチャーは、より複雑で多様であるだけでなく、背景、ライティングおよび撮影角度などの要因の影響を受けやすい。現在のコンピュータビジョンの分野では、適応可能なジェスチャー分割アルゴリズムは存在しない。現在の代表的なジェスチャー分割方法のいくつかは、主に外部デバイスに依存するか、またはユーザの手に特殊な処理を必要とする。これらの技術は、人間の活動範囲を制限するとともに、ハードウェア設備のセットアップ、製造コスト、およびそれらの高い費用などの理由から、実用化において大規模な普及をもたらすことは困難である。 Real-time gesture splitting for home scenes is more complex. User gestures are not only more complex and diverse, but also susceptible to factors such as background, lighting and shooting angle. In the field of computer vision today, there is no adaptable gesture splitting algorithm. Some of the current typical gesture splitting methods rely primarily on external devices or require special processing in the hands of the user. These technologies limit the scope of human activity and are difficult to achieve large-scale adoption in practical use due to reasons such as hardware equipment setup, manufacturing costs, and their high costs.

技術開発に対応して、現在の市場では、ジェスチャー分割機能を有するスマートホーム機器は、まれであり、ほとんどのジェスチャー分割製品は、皮膚の分割に留まり、ジェスチャーに対する分割を完全かつ正確に行うことができず、分割効果は理想的ではない。また、これらの機器は、クラウドサーバに依存したり、ネットワークに依存しすぎたりすることが多く、ネットワークがない場合には動作できない。 In response to technological development, smart home devices with gesture splitting capabilities are rare in the current market, and most gesture splitting products can only split the skin completely and accurately. No, the split effect is not ideal. In addition, these devices often depend on cloud servers or networks too much, and cannot operate without a network.

以上をまとめると、従来技術を基に新規なスマートホームシーン向けのマルチジェスチャー精分割方法を提案し、ジェスチャー分割技術のスマートホーム機器における大規模の普及と応用を実現することは、現在の業者にとって解決を急がれる問題となっている。 Summarizing the above, it is for the current traders to propose a multi-gesture fine division method for new smart home scenes based on the conventional technology and to realize large-scale spread and application of gesture division technology in smart home devices. It is a problem that needs to be resolved.

本発明の目的は、従来技術に存在する以上の不備に鑑み、スマートホームシーン向けのマルチジェスチャー精分割方法を提案することにある。当該方法は、以下のステップを含む。
S1)ジェスチャー画像Image0に対して前処理を行い、画像Image1を得る;
S2)前処理後の画像Image1に対して肌色分割を行い、処理後の画像Image4を得る;
S3)画像Image4において画像の最小結合矩形MBRを構築する;
S4)画像Image4における非ジェスチャーエリアを非ジェスチャーエリア除外基準によって除外して、ジェスチャー画像Image5を取得する;
S5)手の形状特徴に基づく腕冗長性除去アルゴリズムによって画像Image5を処理することによって、腕冗長性の除去を完了する。
An object of the present invention is to propose a multi-gesture fine division method for a smart home scene in view of the above deficiencies existing in the prior art. The method includes the following steps.
S1) Preprocessing is performed on the gesture image Image0 to obtain the image Image1;
S2) Skin color division is performed on the image Image 1 after the pretreatment to obtain the image Image 4 after the treatment;
S3) Build a minimal-coupled rectangular MBR of images in image Image4;
S4) The non-gesture area in the image Image 4 is excluded by the non-gesture area exclusion criterion, and the gesture image Image 5 is acquired;
S5) The removal of the arm redundancy is completed by processing the image Image 5 by the arm redundancy removal algorithm based on the shape feature of the hand.

S1における前記前処理は、少なくとも、ジェスチャー画像ノイズ除去、ジェスチャー画像2値化およびモルフォロジー処理を含むことが好ましい。 The preprocessing in S1 preferably includes at least gesture image noise removal, gesture image binarization, and morphology processing.

S2は、具体的に以下のステップを含むことが好ましい。
S21)Image1画像をRGB色空間からYCbCr色空間に変換して画像Image2を得て、さらにグローバル固定閾値2値化法により画素毎に閾値と比較して2値化画像Image3を得る;
S22)2値化画像Image3の穴と隙間をモルフォロジーにおける膨張腐食演算を用いて除去し、2値化画像をメディアンフィルタを用いて処理し、画像Image4を得る。
Specifically, S2 preferably includes the following steps.
S21) The Image1 image is converted from the RGB color space to the YCbCr color space to obtain the image Image2, and further, the binarized image Image3 is obtained by comparing with the threshold value for each pixel by the global fixed threshold binarization method;
S22) The holes and gaps in the binarized image Image3 are removed by using the expansion corrosion calculation in morphology, and the binarized image is processed by using a median filter to obtain the image Image4.

S3は、具体的に、S2で得られた2値化ジェスチャー画像の輪郭情報をリストcontoursに格納し、座標情報から外接矩形の4つの頂点の座標をそれぞれtop_left、top_right、bottom_left、bottom_rightとして得るステップを含むことが好ましい。 Specifically, S3 stores the contour information of the binarized gesture image obtained in S2 in the list contours, and obtains the coordinates of the four vertices of the circumscribing rectangle as top_left, top_right, bottom_left, and bottom_right from the coordinate information, respectively. Is preferably included.

S4における前記非ジェスチャーエリア除外基準は、具体的に以下を含むことが好ましい。
1)640*480の画像サイズが取得された場合、外接矩形の面積が2500未満である場合、非ジェスチャーエリアとして認定される;
2)外接矩形の幅に対する長さの比が5より大きい場合、非ジェスチャーエリアとして認定される;
3)外接矩形内の画素値255の点の数が矩形面積に対する比が0.8より大きいか、0.4より小さい場合、非ジェスチャーエリアとして認定される。
The non-gesture area exclusion criteria in S4 specifically preferably include:
1) When an image size of 640 * 480 is acquired, if the area of the circumscribing rectangle is less than 2500, it is recognized as a non-gesture area;
2) If the ratio of the length to the width of the circumscribing rectangle is greater than 5, it is recognized as a non-gesture area;
3) When the ratio of the number of points of the pixel value 255 in the circumscribing rectangle to the rectangular area is larger than 0.8 or smaller than 0.4, it is recognized as a non-gesture area.

S5における前記手の形状特徴に基づく腕冗長性除去アルゴリズムは、具体的に、画像Image6に対して、幅の最大値およびその対応する座標を親指手根中手関節とする手の幅分布ヒストグラムと、手の勾配分布ヒストグラムとを統計することを含み、手首の分割線の座標は、手の勾配分布ヒストグラムにおける親指手根中手関節点を探した後の値によって決定されることが好ましい。 The arm redundancy removal algorithm based on the shape feature of the hand in S5 specifically includes a hand width distribution histogram in which the maximum value of the width and its corresponding coordinates are the thumb carpometacarpal joint for the image Image6. , The coordinates of the division line of the wrist are preferably determined by the values after searching for the thumb carpometacarpal joint point in the hand gradient distribution histogram, including statistic with the hand gradient distribution histogram.

ステップS5における前記手首の分割線の座標は、現在点の勾配が0で、次の点の勾配が0以上であることを決定基準として、手の勾配分布ヒストグラムにおける親指手根中手関節点を探した後の値によって決定されることが好ましい。 The coordinates of the division line of the wrist in step S5 are determined by determining that the gradient of the current point is 0 and the gradient of the next point is 0 or more, and the thumb carpometacarpal joint point in the hand gradient distribution histogram is used. It is preferably determined by the value after searching.

従来技術に比較し、本発明の利点は、主に以下である。 The advantages of the present invention as compared with the prior art are mainly as follows.

本発明によるスマートホームシーン向けのマルチジェスチャー精分割方法は、ジェスチャーをローカルでインテリジェントに分割することができ、ネットワークに依存しすぎるという従来技術の不備を克服し、本方法を適用する装置がネットワーク接続なしでも正常に動作することができる。 The multi-gesture fine division method for smart home scenes according to the present invention can intelligently divide gestures locally, overcomes the deficiency of the prior art that it depends too much on the network, and the device to which this method is applied is connected to the network. It can work normally without it.

本発明は、ジェスチャーピクチャーをRGB色空間からYCbCr色空間に変換し、さらにグローバル固定閾値2値化方法によって、肌色の分割を完了する。そして、非ジェスチャーエリアを除外して、ジェスチャー輪郭のMBRとMABRを構築し、ジェスチャー画像を回転させて手の幅を統計し、幅分布ヒストグラムと幅に基づく勾配分布ヒストグラムを構築し、手首の分割線を決定する。最後に、腕の冗長性の除去を完了し、完全なジェスチャー画像が得られる。本発明は、ホーム環境画像内のジェスチャーを迅速かつ正確に分割することを可能にし、ジェスチャーに基づく人間対コンピュータインタラクションシステムの使用の快適さを著しく向上させ、ユーザ満足度を向上させる。 The present invention converts a gesture picture from an RGB color space to a YCbCr color space, and further completes skin color division by a global fixed threshold binarization method. Then, excluding the non-gesture area, construct the MBR and MABR of the gesture contour, rotate the gesture image to stat the hand width, build the width distribution histogram and the gradient distribution histogram based on the width, and divide the wrist. Determine the line. Finally, the removal of arm redundancy is completed and a complete gesture image is obtained. The present invention makes it possible to quickly and accurately divide gestures in a home environment image, significantly improving the comfort of using a gesture-based human-computer interaction system and improving user satisfaction.

また、本発明は、当該分野における他の関連課題の参考になれるものであり、これに基づいて拡張を行うことができ、他のジェスチャー分割に関する技術案に応用することができ、十分に広い応用範囲を有する。 In addition, the present invention can be used as a reference for other related problems in the field, can be extended based on the present invention, can be applied to other technical proposals related to gesture division, and has a sufficiently wide application. Has a range.

以下、本発明の具体的な実施形態について、実施例の図面を参照して、本発明の技術的思想を理解、把握しやすくするために、さらに詳細に説明する。 Hereinafter, specific embodiments of the present invention will be described in more detail with reference to the drawings of Examples in order to facilitate understanding and understanding of the technical idea of the present invention.

本発明による、ジェスチャー画像に対して肌色分割を行うステップのフローチャートである。It is a flowchart of the step which performs the skin color division with respect to the gesture image according to this invention. 本発明による、ジェスチャー画像に対して腕冗長性の除去を行うステップのフローチャートである。It is a flowchart of the step which removes the arm redundancy with respect to the gesture image according to this invention. 本発明による、スマートホームシーン向けのマルチジェスチャー精分割方法の全体的なステップのフローチャートである。It is a flowchart of the whole step of the multi-gesture fine division method for smart home scenes by this invention.

本発明は、スマートホームシーン向けのマルチジェスチャー精分割方法を開示する。前記方法は、YCbCr色空間の肌色分割アルゴリズム、非ジェスチャーエリア除外基準、および手の形状特徴に基づく腕冗長性除去アルゴリズムに基づく。本発明の方法は、以下のステップを含む。S1)ジェスチャー画像Image0に対して前処理を行い、画像Image1を得る;S2)前処理後の画像Image1に対して肌色分割を行い、処理後の画像Image4を得る;S3)画像Image4において画像の最小結合矩形MBRを構築する;S4)画像Image4における非ジェスチャーエリアを非ジェスチャーエリア除外基準によって除外して、ジェスチャー画像Image5を取得する;S5)手の形状特徴に基づく腕冗長性除去アルゴリズムによって画像Image5を処理することによって、腕冗長性の除去を完了する。 The present invention discloses a multi-gesture fine division method for smart home scenes. The method is based on a skin color division algorithm for the YCbCr color space, a non-gesture area exclusion criterion, and an arm redundancy removal algorithm based on hand shape features. The method of the present invention includes the following steps. S1) Gesture image Image0 is preprocessed to obtain image Image1; S2) Preprocessed image Image1 is skin-colored and processed to obtain image Image4; S3) Image 4 is the minimum image. Construct a combined rectangular MBR; S4) exclude the non-gesture area in the image Image 4 by the non-gesture area exclusion criteria to obtain the gesture image Image 5; S5) image Image 5 by the arm redundancy removal algorithm based on the shape feature of the hand. By processing, the removal of arm redundancy is completed.

以上のステップの表現から明らかなように、本発明の方法は、主に肌色分割と腕冗長性の除去の2つの大きな側面を含む。 As is clear from the expression of the above steps, the method of the present invention mainly includes two major aspects of skin color division and removal of arm redundancy.

以下、図面を参照して本発明の方法を具体的に説明する。図1は、本発明の実施例によるジェスチャー画像の肌色分割方法を示す。当該方法のステップとして、主に、以下のステップを含む。 Hereinafter, the method of the present invention will be specifically described with reference to the drawings. FIG. 1 shows a skin color division method for a gesture image according to an embodiment of the present invention. The steps of the method mainly include the following steps.

S1において、ジェスチャー画像Image0に対して前処理を行い、画像Image1を得る。 In S1, the gesture image Image0 is preprocessed to obtain the image Image1.

ジェスチャー画像は、取得時に不可避的にノイズの干渉が存在し、ジェスチャー画像の分割および認識に大きな影響を与えるため、ジェスチャー分割前の画像に対する前処理が特に重要となる。前記前処理は、少なくとも、ジェスチャー画像ノイズ除去、ジェスチャー画像2値化、およびモルフォロジー処理を含む。 Since the gesture image inevitably has noise interference at the time of acquisition and has a great influence on the division and recognition of the gesture image, the preprocessing for the image before the gesture division is particularly important. The preprocessing includes at least gesture image noise removal, gesture image binarization, and morphology processing.

ここで、ジェスチャー画像ノイズ除去は、主に、線形フィルタに属するガウシアンフィルタを使用する。フィルタ窓の画素の値は、テンプレート中心からの距離が増大するにつれて減少するガウス分布に従い、2次元ガウシアン関数が以下である。 Here, the gesture image noise removal mainly uses a Gaussian filter belonging to a linear filter. The pixel values of the filter window follow a Gaussian distribution that decreases as the distance from the template center increases, and the two-dimensional Gaussian function is:

Figure 2021517281
Figure 2021517281

ここで、h(x,y)は、ガウシアンフィルタにおける(x,y)座標上の値を表し、σは、標準偏差を表す。 Here, h (x, y) represents a value on the (x, y) coordinates in the Gaussian filter, and σ represents a standard deviation.

S21において、Image1画像をRGB色空間からYCbCr色空間に変換して画像Image2を得て、さらにグローバル固定閾値2値化法により画素毎に閾値と比較して2値化画像Image3を得る。 In S21, the Image1 image is converted from the RGB color space to the YCbCr color space to obtain the image Image2, and further, the binarized image Image3 is obtained by comparing with the threshold value for each pixel by the global fixed threshold binarization method.

YCbCr色空間は、ビデオ画像およびデジタル画像においてよく使用される色空間である。画像の明暗を表し、0〜255の範囲から値を取るY(luma)成分と、RGB色空間における青色成分とRGB色空間における輝度値の差を表し、0〜255の範囲から値を取るCb成分と、RGB色空間における赤色成分の値とRGB色空間における輝度の差を表し、0〜255の範囲から値を取るCr成分との3つの成分を含む。ここで、Cb成分とCr成分は、互いに独立しており、Y成分と効率よく分離することができる。 The YCbCr color space is a color space often used in video and digital images. Cb, which represents the brightness of an image and represents the difference between the Y (luma) component, which takes a value from the range of 0 to 255, and the blue component in the RGB color space and the brightness value in the RGB color space, and takes a value from the range of 0 to 255. It contains three components, a component, and a Cr component that represents the difference between the value of the red component in the RGB color space and the brightness in the RGB color space and takes a value from the range of 0 to 255. Here, the Cb component and the Cr component are independent of each other and can be efficiently separated from the Y component.

RGB色空間からYCbCr色空間への変換式は、以下の通りである。 The conversion formula from the RGB color space to the YCbCr color space is as follows.

Figure 2021517281
Figure 2021517281

以下のマトリックス形式へ変換される。 It is converted to the following matrix format.

Figure 2021517281
Figure 2021517281

上記ステップで説明した画素毎の閾値との比較は、具体的に、人の肌色のY、Cb、Cr値が「0:256,130:174,77:128」程度であるとして、画像中の画素のYCbCr値がこの区間に属する場合にはその画素値を255とし、そうでない場合には0として、2値化画像Image3を得ることができる。 The comparison with the threshold value for each pixel described in the above step is based on the assumption that the Y, Cb, and Cr values of the human skin color are about "0: 256, 130: 174, 77: 128" in the image. If the YCbCr value of the pixel belongs to this section, the pixel value is set to 255, and if not, the binarized image Image3 can be obtained.

S22において、2値化画像Image3の穴と隙間をモルフォロジーにおける膨張腐食演算を用いて除去し、2値化画像をメディアンフィルタを用いて処理し、画像Image4を得る。 In S22, the holes and gaps in the binarized image Image3 are removed using the expansion corrosion calculation in morphology, and the binarized image is processed with a median filter to obtain the image Image4.

ジェスチャー画像は、2値化処理を経ることにより、得られる画像に、隙間や欠け等が生じることがある。モルフォロジーの役割は、孤立した小さな点、バリの除去、小さな穴の充填、小さな隙間の埋め込み等であり、モルフォロジー操作は主に以下の4種類がある。
1、膨張。モルフォロジー演算における膨張演算過程は、物体が接触した背景点をその物体に統合するものである。その結果、対象物の面積が大きくなる。これは、対象領域に存在する空洞や隙間を埋めることを意味する。
2、腐食。モルフォロジー演算における腐食演算過程は、物体の全ての境界点を消去するものである。その結果、対象物の面積が小さくなる。これは、対象領域に存在する、意味を持たない小さな孤立点を除去することを意味する。
3、開演算。モルフォロジー演算における開演算過程は、まず2値化画像に対して腐食演算を行い、その後に膨張演算を行う。その意味は、目標領域に存在する小さな孤立点やバリ等の無意味な点を消去(腐食演算)し、空洞や隙間を埋める(膨張演算)ことである。
4、閉演算。モルフォロジー演算における閉演算過程は、まず2値化画像に対して膨張演算を行った後、腐食演算を行う。その意味は、対象領域に存在する空洞や隙間を埋める(膨張演算)こと、小さな孤立点やバリなどの無意味な点を消去する(腐食演算)ことである。
The gesture image may have gaps, chips, or the like in the obtained image by undergoing the binarization process. The role of morphology is to remove isolated small dots, burrs, fill small holes, fill small gaps, etc., and there are four main types of morphology operations as follows.
1. Expansion. The expansion operation process in the morphology operation integrates the background points in contact with the object into the object. As a result, the area of the object becomes large. This means filling the cavities and gaps that exist in the target area.
2, corrosion. The corrosion calculation process in the morphology calculation erases all the boundary points of the object. As a result, the area of the object becomes smaller. This means removing small, meaningless isolated points that exist in the target area.
3, open operation. In the open calculation process in the morphology calculation, the corrosion calculation is first performed on the binarized image, and then the expansion calculation is performed. The meaning is to erase meaningless points such as small isolated points and burrs existing in the target area (corrosion calculation) and fill cavities and gaps (expansion calculation).
4, closed operation. In the closing calculation process in the morphology calculation, the expansion calculation is first performed on the binarized image, and then the corrosion calculation is performed. The meaning is to fill the cavities and gaps existing in the target area (expansion calculation) and to eliminate meaningless points such as small isolated points and burrs (corrosion calculation).

前記メディアンフィルタは、非線形フィルタに属し、主に、現在点の周辺画素点の統計およびソートをし、その中央値を現在点の画素値として抽出することで、孤立したノイズ点を除去する。主にメディアンフィルタでジェスチャー2値化画像エッジのバリを平滑化し、そのエッジを平滑化し、手首の分割線の探索に与える影響を低減する。 The median filter belongs to a non-linear filter, and mainly performs statistics and sorting of pixel points around the current point, and extracts the median value as the pixel value of the current point to remove isolated noise points. Gesture binarization mainly with a median filter The burr of the image edge is smoothed, the edge is smoothed, and the influence on the search of the dividing line of the wrist is reduced.

図2は、本発明の実施例によるジェスチャー画像に対し腕冗長性の除去を行う方法であり、当該方法のステップとして、主に以下のステップを含む。 FIG. 2 shows a method of removing arm redundancy with respect to a gesture image according to an embodiment of the present invention, and the steps of the method mainly include the following steps.

S3において、ジェスチャー画像の最小結合矩形MBRを構築する。 In S3, the minimally coupled rectangular MBR of the gesture image is constructed.

画像Image4においてジェスチャー画像の最小結合矩形MBRを構築し、その頂点座標情報は、以下である。 The minimally coupled rectangular MBR of the gesture image is constructed in the image Image 4, and the vertex coordinate information thereof is as follows.

Figure 2021517281
Figure 2021517281

MBRを基に画像のMABRを構築し、輪郭が既知であることを前提に、Grahamスキャン法によりジェスチャー輪郭の凸包を求め、図形をそのMBRの中心を原点としてその90度の範囲内でβ尺度で等間隔に回転させることができる。回転角度に応じたパターンのMBR面積を同時に記録すると、記録の中の最小のMBR面積に対応するMBRは、求められるMABRとなる。 The MABR of the image is constructed based on the MBR, and on the premise that the contour is known, the convex hull of the gesture contour is obtained by the Graham scan method, and the figure is β within the range of 90 degrees with the center of the MBR as the origin. It can be rotated at equal intervals on the scale. When the MBR area of the pattern corresponding to the rotation angle is recorded at the same time, the MBR corresponding to the smallest MBR area in the recording is the required MABR.

S4において、画像Image4における非ジェスチャーエリアを非ジェスチャーエリア除外基準によって除外して、ジェスチャー画像Image5を取得する。 In S4, the non-gesture area in the image Image 4 is excluded by the non-gesture area exclusion criterion, and the gesture image Image 5 is acquired.

前記非ジェスチャーエリア除外基準は、具体的に以下を含む。
1)640*480の画像サイズが取得された場合、外接矩形の面積が2500未満である場合、非ジェスチャーエリアとして認定される;
2)外接矩形の幅に対する長さの比が5より大きい場合、非ジェスチャーエリアとして認定される;
3)外接矩形内の画素値255の点の数が矩形面積に対する比が0.8より大きいか、0.4より小さい場合、非ジェスチャーエリアとして認定される。
The non-gesture area exclusion criteria specifically include:
1) When an image size of 640 * 480 is acquired, if the area of the circumscribing rectangle is less than 2500, it is recognized as a non-gesture area;
2) If the ratio of the length to the width of the circumscribing rectangle is greater than 5, it is recognized as a non-gesture area;
3) When the ratio of the number of points of the pixel value 255 in the circumscribing rectangle to the rectangular area is larger than 0.8 or smaller than 0.4, it is recognized as a non-gesture area.

その後、2値化ジェスチャー画像を反時計回りに回転させると、上記ステップでMABRに対応する回転角度が得られ、ジェスチャー画像を反時計回りに回転させると、ジェスチャー方向を垂直にすることができる。 After that, when the binarized gesture image is rotated counterclockwise, a rotation angle corresponding to MABR is obtained in the above step, and when the gesture image is rotated counterclockwise, the gesture direction can be made vertical.

S5において、手の形状特徴に基づく腕冗長性除去アルゴリズムによって画像Image5を処理することによって、腕冗長性の除去を完了する。 In S5, the removal of arm redundancy is completed by processing the image Image 5 by the arm redundancy removal algorithm based on the shape feature of the hand.

S5における前記手の形状特徴に基づく腕冗長性除去アルゴリズムは、具体的に、画像Image6に対して、幅の最大値およびその対応する座標を親指手根中手関節とする手の幅分布ヒストグラムと、手の勾配分布ヒストグラムとを統計することを含み、手首の分割線の座標は、手の勾配分布ヒストグラムにおける親指手根中手関節点を探した後の値によって決定される。 The arm redundancy removal algorithm based on the shape feature of the hand in S5 specifically includes a hand width distribution histogram in which the maximum value of the width and its corresponding coordinates are the thumb carpometacarpal joint for the image Image6. The coordinates of the division line of the wrist are determined by the values after looking for the thumb carpometacarpal joint point in the hand gradient distribution histogram, including statistic with the hand gradient distribution histogram.

前記幅ヒストグラムの計算手順は以下の通りである。
rows = image.shape[0]
x_label = []
width = []
step = 3
for index in range(step,rows,step):
x_label.append(index)
width.appned(sum(sum(binary[index-3:index]/255))/3)
The calculation procedure of the width histogram is as follows.
rows = image.shape [0]
x_label = []
width = []
step = 3
for index in range (step, rows, step):
x_label.append (index)
width.appned (sum (sum (binary [index-3: index] / 255)) / 3)

前記勾配ヒストグラムの算出手順は以下の通りである。
gradient = [0]
for index in range(1,len(width)):
gradient.append(width[index]-width[index-1])
The procedure for calculating the gradient histogram is as follows.
gradient = [0]
for index in range (1, len (width)):
gradient.append (width [index]-width [index-1])

その後、手首の分割線を決定する。手の幅分布ヒストグラムにおけるジェスチャー幅の最大値およびその対応する座標を親指手根中手関節であるため、手首の分割線の座標として、手の勾配分布ヒストグラムにおける親指手根中手関節点を探した後の値によって決定され、その決定方法として、現在点の勾配が0で、次の点の勾配が0以上である。 After that, the dividing line of the wrist is determined. Since the maximum value of the gesture width in the hand width distribution histogram and its corresponding coordinates are the thumb carpometacarpal joint, search for the thumb carpometacarpal joint point in the hand gradient distribution histogram as the coordinates of the wrist dividing line. It is determined by the value after that, and as the determination method, the gradient of the current point is 0 and the gradient of the next point is 0 or more.

最後に、腕冗長性の除去を完了する。上記ステップでは、手首の分割線の座標情報が得られ、手首分割線より下の画素値を0、すなわち上部ジェスチャー画像のみを残して、腕部分を除去する。 Finally, the removal of arm redundancy is completed. In the above step, the coordinate information of the wrist dividing line is obtained, and the pixel value below the wrist dividing line is 0, that is, only the upper gesture image is left, and the arm portion is removed.

以下、図3を参照して、スマートホームシーン向けのマルチジェスチャー精分割方法の具体的な実施例を提案する。当該実施例は、主に以下のステップを含む。 Hereinafter, with reference to FIG. 3, a specific example of the multi-gesture fine division method for the smart home scene will be proposed. The embodiment mainly includes the following steps.

ステップS301において、画像を取得する。 In step S301, an image is acquired.

主に2Dカメラによってホーム画像を取得する。 The home image is acquired mainly by a 2D camera.

ステップS302において、取得された画像に対して前処理を行う。 In step S302, preprocessing is performed on the acquired image.

画像に対して、フィルタ処理、モルフォロジー処理、2値化処理等を行う。 The image is subjected to filter processing, morphology processing, binarization processing, and the like.

ステップS303において、画像に対して肌色分割を行う。 In step S303, skin color division is performed on the image.

YCbCr色空間においてグローバル固定閾値法を用いて2値化処理を行い、各領域の輪郭情報を8近傍法により取得する。 In the YCbCr color space, binarization processing is performed using the global fixed threshold method, and contour information of each region is acquired by the 8-nearest neighbor method.

ステップS304において、非ジェスチャーエリアをフィルタリングする。 In step S304, the non-gesture area is filtered.

ステップS303で切り出されたジェスチャー画像に対して非ジェスチャーエリアフィルタリングを行うことによって、まず、ジェスチャー画像のMBRを構築し、条件に適合しないエリアをフィルタリングし、条件に適合するものは、ジェスチャー分割処理を行う。 By performing non-gesture area filtering on the gesture image cut out in step S303, first, an MBR of the gesture image is constructed, areas that do not meet the conditions are filtered, and those that meet the conditions are subjected to gesture division processing. Do.

ステップS305において、画像に対してジェスチャー分割を行う。 In step S305, gesture division is performed on the image.

ジェスチャー画像MBRを基にMABRを構築し、ジェスチャー画像の偏向角度を取得し、手の幅分布ヒストグラムと手の勾配分布ヒストグラムを解析することにより、ジェスチャーの手首分割線を取得し、腕エリアをフィルタリングする。 By constructing MABR based on the gesture image MBR, acquiring the deflection angle of the gesture image, and analyzing the hand width distribution histogram and the hand gradient distribution histogram, the wrist dividing line of the gesture is acquired and the arm area is filtered. To do.

ステップS306において、完全なジェスチャー画像を取得する。 In step S306, a complete gesture image is acquired.

ジェスチャー分割によって、0から複数のジェスチャーが生成される。画像内のジェスチャーは、後続のニーズのために抽出され、ジェスチャーに基づく人間対コンピュータインタラクションシステムのために使用され、人間からジェスチャーを通してのホームデバイスの制御を可能にする。 Gesture splitting produces multiple gestures from zero. Gestures in the image are extracted for subsequent needs and used for gesture-based human-computer interaction systems, allowing control of the home device from humans through gestures.

本発明によるスマートホームシーン向けのマルチジェスチャー精分割方法は、ジェスチャーをローカルでインテリジェントに分割することができ、ネットワークに依存しすぎるという従来技術の不備を克服し、本方法を適用する装置がネットワーク接続なしでも正常に動作することができる。 The multi-gesture fine division method for smart home scenes according to the present invention can intelligently divide gestures locally, overcomes the deficiency of the prior art that it depends too much on the network, and the device to which this method is applied is connected to the network. It can work normally without it.

本発明は、ジェスチャーピクチャーをRGB色空間からYCbCr色空間に変換し、さらにグローバル固定閾値2値化方法によって、肌色の分割を完了する。そして、非ジェスチャーエリアを除外して、ジェスチャー輪郭のMBRとMABRを構築し、ジェスチャー画像を回転させて手の幅を統計し、幅分布ヒストグラムと幅に基づく勾配分布ヒストグラムを構築し、手首の分割線を決定する。最後に、腕の冗長性の除去を完了し、完全なジェスチャー画像が得られる。本発明は、ホーム環境画像内のジェスチャーを迅速かつ正確に分割することを可能にし、ジェスチャーに基づく人間対コンピュータインタラクションシステムの使用の快適さを著しく向上させ、ユーザ満足度を向上させる。 The present invention converts a gesture picture from an RGB color space to a YCbCr color space, and further completes skin color division by a global fixed threshold binarization method. Then, excluding the non-gesture area, construct the MBR and MABR of the gesture contour, rotate the gesture image to stat the hand width, build the width distribution histogram and the gradient distribution histogram based on the width, and divide the wrist. Determine the line. Finally, the removal of arm redundancy is completed and a complete gesture image is obtained. The present invention makes it possible to quickly and accurately divide gestures in a home environment image, significantly improving the comfort of using a gesture-based human-computer interaction system and improving user satisfaction.

また、本発明は、当該分野における他の関連課題の参考になれるものであり、これに基づいて拡張を行うことができ、他のジェスチャー分割に関する技術案に応用することができ、十分に広い応用範囲を有する。 In addition, the present invention can be used as a reference for other related problems in the field, can be extended based on the present invention, can be applied to other technical proposals related to gesture division, and has a sufficiently wide application. Has a range.

本発明は、上述した例示的な実施例の詳細に限定されるものではなく、本発明の要旨や基本的な構成を逸脱しない範囲内において、他の具体的な形態で実施し得ることは、当業者にとって自明である。したがって、いずれの点からも、実施例は、例示的かつ非限定的であると見なされるべきであり、本発明の範囲は、上述の説明ではなく添付の特許請求の範囲によって規定される。したがって、特許請求の範囲の均等物の意味および範囲内にあるすべての変更が、本発明内に包含されることが意図され、特許請求の範囲におけるいかなる参照符号も、関連する特許請求の範囲を制限するものと見なされるべきではない。 The present invention is not limited to the details of the above-mentioned exemplary examples, and can be carried out in other specific forms without departing from the gist of the present invention or the basic configuration. It is self-evident to those skilled in the art. Therefore, in all respects, the examples should be considered exemplary and non-limiting, and the scope of the invention is defined by the appended claims rather than the description above. Therefore, the meaning of the equivalents in the claims and all modifications within the scope are intended to be incorporated within the invention, and any reference code in the claims shall cover the relevant claims. It should not be considered a limitation.

さらに、本明細書は実施形態に従って説明されるが、各実施形態が独立した技術的解決手段のみを含むのではない。本明細書のこのような記載方式は、明瞭さのためにすぎない。当業者は、本明細書を全体として、各実施例における技術的解決手段が、当業者が理解し得る他の実施形態を形成するように、適切に組み合わされてもよいことが理解されるべきである。 Moreover, although described herein according to embodiments, each embodiment does not include only independent technical solutions. Such a description scheme herein is for clarity only. It should be understood by those skilled in the art that, as a whole, the technical solutions in each embodiment may be appropriately combined to form other embodiments that can be understood by those skilled in the art. Is.

(付記)
(付記1)
以下のステップを含むことを特徴とするスマートホームシーン向けのマルチジェスチャー精分割方法。
S1)ジェスチャー画像Image0に対して前処理を行い、画像Image1を得る;
S2)前処理後の画像Image1に対して肌色分割を行い、処理後の画像Image4を得る;
S3)画像Image4において画像の最小結合矩形MBRを構築する;
S4)画像Image4における非ジェスチャーエリアを非ジェスチャーエリア除外基準によって除外して、ジェスチャー画像Image5を取得する;
S5)手の形状特徴に基づく腕冗長性除去アルゴリズムによって画像Image5を処理することによって、腕冗長性の除去を完了する。
(Additional note)
(Appendix 1)
A multi-gesture fine division method for smart home scenes that includes the following steps.
S1) Preprocessing is performed on the gesture image Image0 to obtain the image Image1;
S2) Skin color division is performed on the image Image 1 after the pretreatment to obtain the image Image 4 after the treatment;
S3) Build a minimal-coupled rectangular MBR of images in image Image4;
S4) The non-gesture area in the image Image 4 is excluded by the non-gesture area exclusion criterion, and the gesture image Image 5 is acquired;
S5) The removal of the arm redundancy is completed by processing the image Image 5 by the arm redundancy removal algorithm based on the shape feature of the hand.

(付記2)
S1における前記前処理は、少なくとも、ジェスチャー画像ノイズ除去、ジェスチャー画像2値化およびモルフォロジー処理を含むことを特徴とする付記1に記載のスマートホームシーン向けのマルチジェスチャー精分割方法。
(Appendix 2)
The multi-gesture fine division method for a smart home scene according to Appendix 1, wherein the pre-processing in S1 includes at least gesture image noise removal, gesture image binarization, and morphology processing.

(付記3)
S2は、具体的に以下のステップを含むことを特徴とする付記1に記載のスマートホームシーン向けのマルチジェスチャー精分割方法。
S21)Image1画像をRGB色空間からYCbCr色空間に変換して画像Image2を得て、さらにグローバル固定閾値2値化法により画素毎に閾値と比較して2値化画像Image3を得る;
S22)2値化画像Image3の穴と隙間をモルフォロジーにおける膨張腐食演算を用いて除去し、2値化画像をメディアンフィルタを用いて処理し、画像Image4を得る。
(Appendix 3)
S2 is a multi-gesture fine division method for a smart home scene according to Appendix 1, which specifically includes the following steps.
S21) The Image1 image is converted from the RGB color space to the YCbCr color space to obtain the image Image2, and further, the binarized image Image3 is obtained by comparing with the threshold value for each pixel by the global fixed threshold binarization method;
S22) The holes and gaps in the binarized image Image3 are removed by using the expansion corrosion calculation in morphology, and the binarized image is processed by using a median filter to obtain the image Image4.

(付記4)
S3は、具体的に、S2で得られた2値化ジェスチャー画像の輪郭情報をリストcontoursに格納し、座標情報から外接矩形の4つの頂点の座標をそれぞれtop_left、top_right、bottom_left、bottom_rightとして得るステップを含むことを特徴とする付記1に記載のスマートホームシーン向けのマルチジェスチャー精分割方法。
(Appendix 4)
Specifically, S3 stores the contour information of the binarized gesture image obtained in S2 in the list contours, and obtains the coordinates of the four vertices of the circumscribing rectangle as top_left, top_right, bottom_left, and bottom_right from the coordinate information, respectively. The multi-gesture fine division method for the smart home scene according to Appendix 1, which comprises.

(付記5)
S4における前記非ジェスチャーエリア除外基準は、具体的に以下を含むことを特徴とする付記1に記載のスマートホームシーン向けのマルチジェスチャー精分割方法。
1)640*480の画像サイズが取得された場合、外接矩形の面積が2500未満である場合、非ジェスチャーエリアとして認定される;
2)外接矩形の幅に対する長さの比が5より大きい場合、非ジェスチャーエリアとして認定される;
3)外接矩形内の画素値255の点の数が矩形面積に対する比が0.8より大きいか、0.4より小さい場合、非ジェスチャーエリアとして認定される。
(Appendix 5)
The multi-gesture fine division method for a smart home scene according to Appendix 1, wherein the non-gesture area exclusion criterion in S4 specifically includes the following.
1) When an image size of 640 * 480 is acquired, if the area of the circumscribing rectangle is less than 2500, it is recognized as a non-gesture area;
2) If the ratio of the length to the width of the circumscribing rectangle is greater than 5, it is recognized as a non-gesture area;
3) When the ratio of the number of points of the pixel value 255 in the circumscribing rectangle to the rectangular area is larger than 0.8 or smaller than 0.4, it is recognized as a non-gesture area.

(付記6)
S5における前記手の形状特徴に基づく腕冗長性除去アルゴリズムは、具体的に、画像Image6に対して、幅の最大値およびその対応する座標を親指手根中手関節とする手の幅分布ヒストグラムと、手の勾配分布ヒストグラムとを統計することを含み、
手首の分割線の座標は、手の勾配分布ヒストグラムにおける親指手根中手関節点を探した後の値によって決定されることを特徴とする付記1に記載のスマートホームシーン向けのマルチジェスチャー精分割方法。
(Appendix 6)
The arm redundancy removal algorithm based on the shape feature of the hand in S5 specifically includes a hand width distribution histogram in which the maximum value of the width and its corresponding coordinates are the thumb carpometacarpal joint for the image Image6. Includes statistics on the hand gradient distribution histogram
The multi-gesture fine division for the smart home scene according to Appendix 1, wherein the coordinates of the division line of the wrist are determined by the value after searching the thumb-carpometacarpal joint point in the gradient distribution histogram of the hand. Method.

(付記7)
ステップS5における前記手首の分割線の座標は、現在点の勾配が0で、次の点の勾配が0以上であることを決定基準として、手の勾配分布ヒストグラムにおける親指手根中手関節点を探した後の値によって決定されることを特徴とする付記6に記載のスマートホームシーン向けのマルチジェスチャー精分割方法。
(Appendix 7)
The coordinates of the division line of the wrist in step S5 are the thumb carpometacarpal joint points in the hand gradient distribution histogram based on the fact that the gradient of the current point is 0 and the gradient of the next point is 0 or more. The multi-gesture fine division method for a smart home scene according to Appendix 6, which is determined by a value after searching.

Claims (7)

以下のステップを含むことを特徴とするスマートホームシーン向けのマルチジェスチャー精分割方法。
S1)ジェスチャー画像Image0に対して前処理を行い、画像Image1を得る;
S2)前処理後の画像Image1に対して肌色分割を行い、処理後の画像Image4を得る;
S3)画像Image4において画像の最小結合矩形MBRを構築する;
S4)画像Image4における非ジェスチャーエリアを非ジェスチャーエリア除外基準によって除外して、ジェスチャー画像Image5を取得する;
S5)手の形状特徴に基づく腕冗長性除去アルゴリズムによって画像Image5を処理することによって、腕冗長性の除去を完了する。
A multi-gesture fine division method for smart home scenes that includes the following steps.
S1) Preprocessing is performed on the gesture image Image0 to obtain the image Image1;
S2) Skin color division is performed on the image Image 1 after the pretreatment to obtain the image Image 4 after the treatment;
S3) Build a minimal-coupled rectangular MBR of images in image Image4;
S4) The non-gesture area in the image Image 4 is excluded by the non-gesture area exclusion criterion, and the gesture image Image 5 is acquired;
S5) The removal of the arm redundancy is completed by processing the image Image 5 by the arm redundancy removal algorithm based on the shape feature of the hand.
S1における前記前処理は、少なくとも、ジェスチャー画像ノイズ除去、ジェスチャー画像2値化およびモルフォロジー処理を含むことを特徴とする請求項1に記載のスマートホームシーン向けのマルチジェスチャー精分割方法。 The multi-gesture fine division method for a smart home scene according to claim 1, wherein the pre-processing in S1 includes at least gesture image noise removal, gesture image binarization, and morphology processing. S2は、具体的に以下のステップを含むことを特徴とする請求項1に記載のスマートホームシーン向けのマルチジェスチャー精分割方法。
S21)Image1画像をRGB色空間からYCbCr色空間に変換して画像Image2を得て、さらにグローバル固定閾値2値化法により画素毎に閾値と比較して2値化画像Image3を得る;
S22)2値化画像Image3の穴と隙間をモルフォロジーにおける膨張腐食演算を用いて除去し、2値化画像をメディアンフィルタを用いて処理し、画像Image4を得る。
The multi-gesture fine division method for a smart home scene according to claim 1, wherein S2 specifically includes the following steps.
S21) The Image1 image is converted from the RGB color space to the YCbCr color space to obtain the image Image2, and further, the binarized image Image3 is obtained by comparing with the threshold value for each pixel by the global fixed threshold binarization method;
S22) The holes and gaps in the binarized image Image3 are removed by using the expansion corrosion calculation in morphology, and the binarized image is processed by using a median filter to obtain the image Image4.
S3は、具体的に、S2で得られた2値化ジェスチャー画像の輪郭情報をリストcontoursに格納し、座標情報から外接矩形の4つの頂点の座標をそれぞれtop_left、top_right、bottom_left、bottom_rightとして得るステップを含むことを特徴とする請求項1に記載のスマートホームシーン向けのマルチジェスチャー精分割方法。 Specifically, S3 stores the contour information of the binarized gesture image obtained in S2 in the list contours, and obtains the coordinates of the four vertices of the circumscribing rectangle as top_left, top_right, bottom_left, and bottom_right from the coordinate information, respectively. The multi-gesture fine division method for a smart home scene according to claim 1, wherein the method includes. S4における前記非ジェスチャーエリア除外基準は、具体的に以下を含むことを特徴とする請求項1に記載のスマートホームシーン向けのマルチジェスチャー精分割方法。
1)640*480の画像サイズが取得された場合、外接矩形の面積が2500未満である場合、非ジェスチャーエリアとして認定される;
2)外接矩形の幅に対する長さの比が5より大きい場合、非ジェスチャーエリアとして認定される;
3)外接矩形内の画素値255の点の数が矩形面積に対する比が0.8より大きいか、0.4より小さい場合、非ジェスチャーエリアとして認定される。
The multi-gesture fine division method for a smart home scene according to claim 1, wherein the non-gesture area exclusion criterion in S4 specifically includes the following.
1) When an image size of 640 * 480 is acquired, if the area of the circumscribing rectangle is less than 2500, it is recognized as a non-gesture area;
2) If the ratio of the length to the width of the circumscribing rectangle is greater than 5, it is recognized as a non-gesture area;
3) When the ratio of the number of points of the pixel value 255 in the circumscribing rectangle to the rectangular area is larger than 0.8 or smaller than 0.4, it is recognized as a non-gesture area.
S5における前記手の形状特徴に基づく腕冗長性除去アルゴリズムは、具体的に、画像Image6に対して、幅の最大値およびその対応する座標を親指手根中手関節とする手の幅分布ヒストグラムと、手の勾配分布ヒストグラムとを統計することを含み、
手首の分割線の座標は、手の勾配分布ヒストグラムにおける親指手根中手関節点を探した後の値によって決定されることを特徴とする請求項1に記載のスマートホームシーン向けのマルチジェスチャー精分割方法。
The arm redundancy removal algorithm based on the shape feature of the hand in S5 specifically includes a hand width distribution histogram in which the maximum value of the width and its corresponding coordinates are the thumb carpometacarpal joint for the image Image6. Includes statistics on the hand gradient distribution histogram
The multi-gesture precision for the smart home scene according to claim 1, wherein the coordinates of the division line of the wrist are determined by the value after searching the thumb-carpometacarpal joint point in the gradient distribution histogram of the hand. How to divide.
ステップS5における前記手首の分割線の座標は、現在点の勾配が0で、次の点の勾配が0以上であることを決定基準として、手の勾配分布ヒストグラムにおける親指手根中手関節点を探した後の値によって決定されることを特徴とする請求項6に記載のスマートホームシーン向けのマルチジェスチャー精分割方法。 The coordinates of the division line of the wrist in step S5 are the thumb carpometacarpal joint points in the hand gradient distribution histogram based on the fact that the gradient of the current point is 0 and the gradient of the next point is 0 or more. The multi-gesture fine division method for a smart home scene according to claim 6, wherein the value is determined after searching.
JP2020515730A 2019-02-26 2019-06-26 Multi-gesture fine division method for smart home scenes Active JP6932402B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910140430.6A CN109961016B (en) 2019-02-26 2019-02-26 Multi-gesture accurate segmentation method for smart home scene
CN201910140430.6 2019-02-26
PCT/CN2019/092970 WO2020173024A1 (en) 2019-02-26 2019-06-26 Multi-gesture precise segmentation method for smart home scenario

Publications (2)

Publication Number Publication Date
JP2021517281A true JP2021517281A (en) 2021-07-15
JP6932402B2 JP6932402B2 (en) 2021-09-08

Family

ID=67023818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020515730A Active JP6932402B2 (en) 2019-02-26 2019-06-26 Multi-gesture fine division method for smart home scenes

Country Status (3)

Country Link
JP (1) JP6932402B2 (en)
CN (1) CN109961016B (en)
WO (1) WO2020173024A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112070859B (en) * 2020-09-16 2021-05-04 山东晨熙智能科技有限公司 Photo image automatic filling method and system for photo book
CN112613355B (en) * 2020-12-07 2022-07-26 北京理工大学 Gesture segmentation method based on island searching algorithm
CN112949542A (en) * 2021-03-17 2021-06-11 哈尔滨理工大学 Wrist division line determining method based on convex hull detection
CN113204991B (en) 2021-03-25 2022-07-15 南京邮电大学 Rapid face detection method based on multilayer preprocessing

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11167455A (en) * 1997-12-05 1999-06-22 Fujitsu Ltd Hand form recognition device and monochromatic object form recognition device
JP2001056861A (en) * 1999-06-08 2001-02-27 Matsushita Electric Ind Co Ltd Device and method for recognizing shape and attitude of hand and recording medium where program implementing the method is recorded
CN106557173A (en) * 2016-11-29 2017-04-05 重庆重智机器人研究院有限公司 Dynamic gesture identification method and device
CN109190496A (en) * 2018-08-09 2019-01-11 华南理工大学 A kind of monocular static gesture identification method based on multi-feature fusion

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9858475B2 (en) * 2010-05-14 2018-01-02 Intuitive Surgical Operations, Inc. Method and system of hand segmentation and overlay using depth data
CN103426000B (en) * 2013-08-28 2016-12-28 天津大学 A kind of static gesture Fingertip Detection
CN106325485B (en) * 2015-06-30 2019-09-10 芋头科技(杭州)有限公司 A kind of gestures detection recognition methods and system
CN108345867A (en) * 2018-03-09 2018-07-31 南京邮电大学 Gesture identification method towards Intelligent household scene
CN109214297A (en) * 2018-08-09 2019-01-15 华南理工大学 A kind of static gesture identification method of combination depth information and Skin Color Information

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11167455A (en) * 1997-12-05 1999-06-22 Fujitsu Ltd Hand form recognition device and monochromatic object form recognition device
JP2001056861A (en) * 1999-06-08 2001-02-27 Matsushita Electric Ind Co Ltd Device and method for recognizing shape and attitude of hand and recording medium where program implementing the method is recorded
CN106557173A (en) * 2016-11-29 2017-04-05 重庆重智机器人研究院有限公司 Dynamic gesture identification method and device
CN109190496A (en) * 2018-08-09 2019-01-11 华南理工大学 A kind of monocular static gesture identification method based on multi-feature fusion

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
大野 健太朗、弘畑 和秀: ""Webカメラを用いた身振り認識によるユーザインタフェースの実現"", 情報処理学会研究報告, vol. 2006, no. 52, JPN6021023947, 19 May 2006 (2006-05-19), JP, pages 57 - 61, ISSN: 0004533311 *
根本 祐也、中島 克人: ""複雑背景下における単眼カメラによるハンドジェスチャの認識"", FIT2013 第12回情報科学技術フォーラム 講演論文集 第3分冊 査読付き論文・一般論文, JPN6021023946, 20 August 2013 (2013-08-20), JP, pages 113 - 114, ISSN: 0004533312 *

Also Published As

Publication number Publication date
JP6932402B2 (en) 2021-09-08
WO2020173024A1 (en) 2020-09-03
CN109961016A (en) 2019-07-02
CN109961016B (en) 2022-10-14

Similar Documents

Publication Publication Date Title
JP6932402B2 (en) Multi-gesture fine division method for smart home scenes
TWI395145B (en) Hand gesture recognition system and method
EP1969559B1 (en) Contour finding in segmentation of video sequences
EP1969562B1 (en) Edge-guided morphological closing in segmentation of video sequences
EP1969560B1 (en) Edge-controlled morphological closing in segmentation of video sequences
WO2017084204A1 (en) Method and system for tracking human body skeleton point in two-dimensional video stream
WO2016034059A1 (en) Target object tracking method based on color-structure features
JP4597391B2 (en) Facial region detection apparatus and method, and computer-readable recording medium
JP2017531883A (en) Method and system for extracting main subject of image
WO2007076890A1 (en) Segmentation of video sequences
CN105678213B (en) Dual-mode mask person event automatic detection method based on video feature statistics
CN106446862A (en) Face detection method and system
CN107248174A (en) A kind of method for tracking target based on TLD algorithms
WO2022134703A1 (en) Method, system and apparatus for identifying hair follicle points, and storage medium
JP2010057105A (en) Three-dimensional object tracking method and system
CN113139557B (en) Feature extraction method based on two-dimensional multi-element empirical mode decomposition
CN109934152B (en) Improved small-bent-arm image segmentation method for sign language image
JP2016009448A (en) Determination device, determination method, and determination program
Parente et al. Assessing facial image accordance to ISO/ICAO requirements
JP6350331B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
CN109145875B (en) Method and device for removing black frame glasses in face image
CN112541471A (en) Shielded target identification method based on multi-feature fusion
Xie et al. Hand posture recognition using kinect
CN110232321B (en) Method and device for detecting fingertip clicking position, terminal and computer storage medium
Malashin et al. Restoring a silhouette of the hand in the problem of recognizing gestures by adaptive morphological filtering of a binary image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210811

R150 Certificate of patent or registration of utility model

Ref document number: 6932402

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150