JP2014235743A - Method and equipment for determining position of hand on the basis of depth image - Google Patents

Method and equipment for determining position of hand on the basis of depth image Download PDF

Info

Publication number
JP2014235743A
JP2014235743A JP2014108917A JP2014108917A JP2014235743A JP 2014235743 A JP2014235743 A JP 2014235743A JP 2014108917 A JP2014108917 A JP 2014108917A JP 2014108917 A JP2014108917 A JP 2014108917A JP 2014235743 A JP2014235743 A JP 2014235743A
Authority
JP
Japan
Prior art keywords
hand
point
main direction
determining
edge point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014108917A
Other languages
Japanese (ja)
Other versions
JP6454984B2 (en
Inventor
リアン リンイェヌ
Lingyan Liang
リアン リンイェヌ
リイェヌ リィウ
Liyan Liu
リイェヌ リィウ
イン ジャオ
Ying Zhao
イン ジャオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2014235743A publication Critical patent/JP2014235743A/en
Application granted granted Critical
Publication of JP6454984B2 publication Critical patent/JP6454984B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a method and equipment for determining a position of a hand on the basis of a depth image.SOLUTION: A method of determining a position of a hand according to the present invention includes the steps of determining the main direction of a candidate area of a hand acquired on the basis of a depth image, searching for tip edge points of the hand along the main direction, and determining position points of the hand on the basis of the respective tip edge points. The method and equipment for determining a position of a hand enable the accurate determination of a position of a hand without being affected by light beam conditions and the shape of a hand.

Description

本発明は全体として手の追跡と位置確定に関するもので、より具体的には深度画像(depth map)に基づく手の位置確定方法と設備に関するものである。   The present invention relates generally to hand tracking and position determination, and more specifically to a hand position determination method and equipment based on a depth map.

手の追跡と位置確定は手の動作識別システムにおいて非常に重要かつキーとなる部分である。ユーザー操作の利便性のためには、手の追跡と位置確定には、特殊な手袋、カラー標示物等の特殊設備を身に着けることを必要とすべきではない。それ以外に、手は非剛性物体で、動きが早く、変形しやすく、自分で自分を遮蔽するなどの特徴があるため、手の追跡と位置確定は非常に難しい作業である。   Hand tracking and positioning is a very important and key part of the hand motion identification system. For convenience of user operation, hand tracking and position determination should not require wearing special equipment such as special gloves or color markings. Other than that, the hand is a non-rigid object, fast moving, easily deformed, and has features such as shielding itself, so tracking and positioning of the hand is a very difficult task.

以前、多くの研究者が手を表す特徴として手の色彩特徴を利用して追跡と位置確定を行っていたが、この方法では容易に光線条件の影響を受けてしまう。深度画像は光線の影響がかなり小さいことが考慮され、現在は深度画像に基づく手の追跡と位置確定を行う研究者がますます増えている。但し、深度画像上の情報はかなり少ないため、どんな深度画像からも有効な情報を取り出せて手の追跡と位置確定ができるかが解決すべき問題となっている。ある研究者たちは深度閾値を使って手の候補エリアを分割し、形状特徴、エッジ特徴又はヒストグラム統計特徴を通じて当該エリアが手かどうかを調べている。しかし、手の候補エリアの位置確定が不正確であったり、又は、候補エリアの範囲外であったりすると、この方法では手の位置を確定することができない。   Previously, many researchers used hand color features as hand features to track and determine positions, but this method is easily affected by light conditions. Considering that depth images are much less affected by light rays, more and more researchers are now tracking and locating hands based on depth images. However, since there is very little information on the depth image, it is a problem to be solved whether effective information can be extracted from any depth image and hand tracking and position determination can be performed. Some researchers use a depth threshold to divide a candidate hand area and check whether the area is a hand through shape features, edge features, or histogram statistical features. However, if the position determination of the hand candidate area is inaccurate or out of the range of the candidate area, the position of the hand cannot be determined by this method.

米国特許第7372977b2号はデプスカメラを使いリアルタイムの視覚で追跡を行う技術を公開した。当該技術では、まず深度画像から追跡目標のエッジ情報を取得した後、数学的輪郭表現モデルを使って当該追跡目標を表示し、最後に深度データに基づき追跡目標のエッジ情報と輪郭モデルをマッチングさせ、追跡位置点を探し出す。この発明では主として輪郭情報を使って手の追跡を行うため、手の輪郭についてかなりの厳密さが求められる。   U.S. Pat. No. 7372977b2 discloses a technique for real-time visual tracking using a depth camera. In this technology, first, the tracking target edge information is obtained from the depth image, then the tracking target is displayed using a mathematical contour expression model, and finally the tracking target edge information and the contour model are matched based on the depth data. Find the tracking position point. In the present invention, since hand tracking is mainly performed using contour information, considerable strictness is required for the hand contour.

「3D hand tracking using kalman filter in depth space」という論文は運動履歴画像情報を使用してリアルタイムで手の3D追跡を行う方法を提案した。当該方法では、3D深度センサーから出た画像情報に基づき、運動のクラスタリングによって、手の候補エリアを検出した後、kalmanフィルターにより手の追跡と位置確定を実現する。当該技術は手が動いている時には比較的良好に手の位置を確定し、手の追跡を行うことができるが、手が静止している場合は、ノイズの影響を受け誤追跡が生じやすい。   The paper "3D hand tracking using kalman filter in depth space" proposed a method for 3D hand tracking in real time using motion history image information. In this method, hand candidate areas are detected by motion clustering based on image information output from a 3D depth sensor, and then hand tracking and position determination are realized by a kalman filter. This technique can determine the position of the hand relatively well when the hand is moving, and can track the hand. However, when the hand is stationary, the tracking is likely to occur due to the influence of noise.

本発明は、深度画像(depth map)に基づく手の位置確定方法と設備を提供することを目的とする。   An object of the present invention is to provide a hand position determination method and equipment based on a depth map.

本発明の実施例においては、深度画像に基づいて取得した手の候補エリアの主方向を確定し、前記主方向に沿って手の先端エッジ点を探し、及び、前記各先端エッジ点に基づいて手の位置点を確定することを含む、深度画像に基づく手の位置確定方法を提供する。   In an embodiment of the present invention, the main direction of the candidate area of the hand acquired based on the depth image is determined, the leading edge point of the hand is searched along the main direction, and based on each leading edge point A method for determining the position of a hand based on a depth image is provided, including determining a position point of the hand.

本発明の他の実施例においては、深度画像に基づいて予測した手の候補エリアの主方向を確定するのに用いる主方向確定装置、前記主方向に沿って手の先端エッジ点を探すのに用いるエッジ点探索装置、及び、前記各先端エッジ点に基づいて手の位置点を確定するのに用いる位置点確定装置を含む、深度画像に基づく手の位置確定設備を提供する。   In another embodiment of the present invention, a main direction determination device used to determine a main direction of a candidate area of a hand predicted based on a depth image, for searching for a leading edge point of the hand along the main direction. Provided is a hand position determination facility based on a depth image, including an edge point search device to be used, and a position point determination device to be used for determining a hand position point based on each of the leading edge points.

本発明実施例による深度画像に基づく手の位置確定技術は手の位置を正確に確定することができ、かつ光線条件や、手の形状の影響を受けることがない。   The hand position determination technique based on the depth image according to the embodiment of the present invention can accurately determine the position of the hand and is not affected by the light beam condition or the shape of the hand.

本発明の実施例を応用する手の追跡と位置確定技術を概念的に示した場面である。6 is a scene conceptually showing hand tracking and position determination technology to which an embodiment of the present invention is applied. 本発明実施例の深度画像に基づく手の位置確定方法のフローチャートである。It is a flowchart of the position determination method of the hand based on the depth image of this invention Example. 深度画像に基づいてそれぞれ確定した候補エリアブロックと候補エリアである。The candidate area block and the candidate area are determined based on the depth image. 手の候補エリアの主方向の概念図である。It is a conceptual diagram of the main direction of the candidate area of a hand. 本発明の実施例の主方向に沿って手の先端エッジ点を探すフローチャートである。It is a flowchart which searches the front-end | tip edge point of the hand along the main direction of the Example of this invention. 本発明の実施例の主方向に沿って手の先端エッジ点を探すプロセス例である。FIG. 6 is an example process for searching for a tip edge point of a hand along a main direction of an embodiment of the present invention. FIG. 本発明の実施例の各先端エッジ点に基づいて手の位置点を確定するフローチャートである。It is a flowchart which determines the position point of a hand based on each front-end | tip edge point of the Example of this invention. 本発明の実施例の深度画像に基づくの位置確定設備の機能配置ブロック図を示す。The functional arrangement block diagram of the position determination equipment based on the depth image of the Example of this invention is shown. 本発明の実施例の深度画像に基づく手の位置確定システムの全体ハードウェアブロック図を示す。1 shows an overall hardware block diagram of a hand position determination system based on a depth image of an embodiment of the present invention. FIG.

当業者が本発明をより良く理解できるように、以下、図面と発明を実施するための形態を組み合わせて本発明について詳しく説明する。   In order that those skilled in the art can better understand the present invention, the present invention will be described in detail below in combination with the drawings and embodiments for carrying out the invention.

図1は本発明の実施例を応用する手の位置確定技術を概念的に示した場面である。図1に示すように、ユーザーが二眼カメラのようなステレオカメラの撮影範囲内に立っていて、このステレオカメラでユーザーを撮影している。ユーザーがカメラの範囲内で手を動かすと、例えばコンピュータの計算処理装置が、ステレオカメラの撮影した画像に基づいて取得した深度画像によってユーザーの手の位置情報を確定し、手の追跡を行うことができる。例えば、図1中の黒い点は手の移動軌跡を示す。   FIG. 1 is a scene conceptually showing a hand position determination technique to which an embodiment of the present invention is applied. As shown in FIG. 1, the user stands within the shooting range of a stereo camera such as a twin-lens camera, and the user is shot with this stereo camera. When the user moves his / her hand within the range of the camera, for example, the computer processing device determines the position information of the user's hand based on the depth image acquired based on the image captured by the stereo camera, and performs tracking of the hand Can do. For example, the black dots in FIG. 1 indicate the movement trajectory of the hand.

当業者ならよく知るように、深度画像は画像中の各画素の値がその場面のある一点とカメラとの距離を示す画像である。グレースケール画像とは違い、深度画像は物体の深度(距離)情報を含んでいるため、立体情報を必要とする各種応用に適している。   As is well known to those skilled in the art, a depth image is an image in which the value of each pixel in the image indicates the distance between a certain point in the scene and the camera. Unlike a gray scale image, a depth image includes depth (distance) information of an object, and is therefore suitable for various applications that require stereoscopic information.

図2は本発明の実施例の深度画像に基づく手の位置確定方法のフローチャートである。   FIG. 2 is a flowchart of the hand position determination method based on the depth image of the embodiment of the present invention.

図2に示すように、ステップS210では、深度画像に基づいて取得した手の候補エリアの主方向を確定する。   As shown in FIG. 2, in step S210, the main direction of the hand candidate area acquired based on the depth image is determined.

これまでに述べたように、深度画像に基づいて手の候補エリアを取得することは本分野では既に多くの研究があり、それは本発明のキーポイントではなく、当業者は如何なる既存の適当な方式によって深度画像から手の候補エリアを取得することができる。ここでは、説明を完璧なものにするために、本実施例で使用した取得方式について簡単な説明を行うことにする。   As described above, obtaining a candidate area of a hand based on a depth image has already been a lot of research in the field, which is not a key point of the present invention, and those skilled in the art will know what existing suitable schemes. The hand candidate area can be acquired from the depth image. Here, in order to complete the description, a brief description of the acquisition method used in the present embodiment will be given.

まず、履歴情報に基づいて手の候補位置点を予測する。   First, the candidate position point of the hand is predicted based on the history information.

手の運動には連続性があるため、このステップにおいて手の以前の運動状態と運動係数に基づいて手が現在出現する可能性のある位置を予測する。手の位置点とは手の位置を表すのに用いる点であり、例えば手の中心点や重心点等々でもよい。   Since the hand movement is continuous, in this step, the position where the hand may appear now is predicted based on the previous movement state and the movement coefficient of the hand. The hand position point is a point used to represent the position of the hand, and may be, for example, the center point of the hand or the center of gravity point.

このステップは例えばkalmanフィルターや粒子フィルター等、如何なる適当な点の追跡方法を用いて実現してもよい。局部的範囲では、手の動きは線運動に近似するので、最も簡単な予測方法は前のフレームでの手の位置点と手の運動速度に基づいて現在のフレーム中に手が現れる位置を予測することで、下に示すような式となる。

Figure 2014235743
This step may be accomplished using any suitable point tracking method, such as a kalman filter or particle filter. In local range, hand movement approximates linear motion, so the simplest prediction method is to predict where a hand will appear in the current frame based on the hand position point and hand motion speed in the previous frame By doing so, the following formula is obtained.
Figure 2014235743

この中で、(Sx,t-1,Sy,t-1)は前のフレーム(t-1時刻)における手の位置点の座標であり、(Sx,t,Sy,t)は現在のフレーム(t時刻)における手の候補位置点の座標であり、Δtは連続した二つのフレーム間の時間間隔であり、運動速度(Vx,t-1,Vy,t-1)は下式により計算することができる。

Figure 2014235743
In this, (S x, t-1 , S y, t-1 ) is the coordinates of the hand position point in the previous frame (t-1 time), and (S x, t , S y, t ) Is the coordinates of the candidate position point of the hand in the current frame (time t), Δt is the time interval between two consecutive frames, and the motion speed (V x, t-1 , V y, t-1 ) Can be calculated by the following equation.
Figure 2014235743

この中で、(Sx,t-2,Sy,t-2)はもう一つ前のフレーム(t-2時刻)における手の位置点の座標である。 In this, (S x, t-2 , S y, t-2 ) is the coordinates of the hand position point in the previous frame (time t-2).

手の候補位置点を取得した後、この候補位置点と深度値情報履歴に基づいて候補エリアブロックを確定する。   After acquiring the hand candidate position point, the candidate area block is determined based on the candidate position point and the depth value information history.

候補エリアブロックは任意の形状を用いることができ、図3の(a)の長方形を例として候補エリアブロックを示す。候補エリアブロックの大きさは固定的ではなく、順応性をもっており、その目的は検出された手がなるべくその中に含まれるようにするためであるが、この候補エリアブロックは大きすぎてもいけない。大きさの固定した候補エリアブロックに対し、このように大きさが柔軟に変化することは計算の複雑さを減らすのに有効である。具体的には、画像を集める過程で、近い物は大きく遠い物は小さくなるという特徴があるため、手がカメラに近づくと、集めた画像中の手の面積は比較的大きくなり、候補エリアブロックもこれに相応して比較的大きくなるが、手がカメラから離れると、集めた画像中の手の面積は比較的小さくなり、候補エリアブロックもこれに相応して比較的小さくなる。例として、本発明では長方形を用いて候補エリアブロックを表しているが、下式によって候補エリアブロックの半径を確定すると、長方形の辺長の半分となる。

Figure 2014235743
The candidate area block can have any shape, and the candidate area block is shown by taking the rectangle in FIG. 3 (a) as an example. The size of the candidate area block is not fixed and has adaptability, and its purpose is to include the detected hand as much as possible, but this candidate area block should not be too large. For a candidate area block whose size is fixed, such a flexible change in size is effective in reducing the computational complexity. Specifically, in the process of collecting images, near objects are large and distant objects are small, so when the hand approaches the camera, the area of the hand in the collected image becomes relatively large, and the candidate area block However, when the hand moves away from the camera, the area of the hand in the collected image becomes relatively small, and the candidate area block becomes relatively small accordingly. As an example, in the present invention, a candidate area block is represented using a rectangle, but if the radius of the candidate area block is determined by the following equation, it becomes half the side length of the rectangle.
Figure 2014235743

この中で、HandRadiusは候補エリアブロックの半径であり、αは常数で、その大きさは使用するカメラの固定パラメータと画像中の画素の長さに基づいて対応する被撮影物体の実際の長さによって確定する。HisDepth Valueは現在のフレームにおける手の候補位置点の参考深度値を表し、それ以前の連続したフレームの中における手の位置点の平均深度値を用いて当該HisDepth Valueとすることができ、例えば下式のように示される。

Figure 2014235743
In this, HandRadius is the radius of the candidate area block, α is a constant, and its size is the actual length of the corresponding object to be shot based on the fixed parameters of the camera used and the length of the pixels in the image To confirm. HisDepth Value represents the reference depth value of the candidate position point of the hand in the current frame, and can be used as the HisDepth Value by using the average depth value of the hand position point in the previous consecutive frames. It is shown as an expression.
Figure 2014235743

この中でDepthValueiは第i個のフレーム中の手の位置点の実際の深度値であり、nはフレーム数である。 In this, DepthValue i is the actual depth value of the hand position point in the i-th frame, and n is the number of frames.

候補エリアブロックを確定した後、その中から候補エリアを分割する。   After the candidate area block is determined, the candidate area is divided from among the candidate area blocks.

候補エリアブロック中には手だけでなく、深度画像中にある他の画像内容も含まれるため、その中から手の候補エリアを分割しなければならない。この分割処理は既存の各種エリア分割方法を通じて行うことができ、例えば領域成長、閾値分割等々があるが、ここでは詳細な説明は行わない。図3の(b)は分割した手の候補エリアである。   Since the candidate area block includes not only the hand but also other image contents in the depth image, the candidate area of the hand must be divided from that. This division processing can be performed through various existing area division methods. For example, there are region growth, threshold division, and the like, but detailed description will not be given here. FIG. 3B shows a candidate area for divided hands.

以上、簡単に深度画像に基づいて手の候補エリアを取得する方法の例を紹介した。前に述べたように、当業者は如何なる既存の適当な方法によって深度画像から手の候補エリアを取得することができる。以下、本発明実施例に基づき、前記手の候補エリアの主方向を確定するプロセスについて説明を行う。   As mentioned above, the example of the method of acquiring the candidate area of a hand easily based on the depth image was introduced. As previously mentioned, one of ordinary skill in the art can obtain a hand candidate area from a depth image by any existing suitable method. Hereinafter, a process for determining the main direction of the hand candidate area will be described based on an embodiment of the present invention.

主方向とは画像エリア中で取得することのできる最も長い線分の存在する直線方向である。図4の(a)と(b)は本発明実施例における手の候補エリアの主方向(記号Aの指し示す直線の方向)の概念図である。主方向は本分野の適当な各種方法を用いて計算することができるが、本実施例では、主成分分析法(PCA)を使って主方向を計算することとし、その中で直線の方向ベクトルA(Ax, Ay)で主方向を表示し、Ay∈[−1,1]、Ax∈[−1,1]とする。主成分分析法と直線の方向ベクトルは共に本分野では公知であり、ここでは詳細な説明は行わない。   The main direction is a linear direction in which the longest line segment that can be acquired in the image area exists. FIGS. 4A and 4B are conceptual diagrams of the main direction of the hand candidate area (the direction of the straight line indicated by the symbol A) in the embodiment of the present invention. The principal direction can be calculated by using various appropriate methods in this field. In this embodiment, the principal direction is calculated by using the principal component analysis method (PCA), and the direction vector of the straight line in the principal direction is calculated. The main direction is indicated by A (Ax, Ay), and Ay∈ [−1,1] and Ax∈ [−1,1]. Both the principal component analysis method and the direction vector of the straight line are known in the art, and will not be described in detail here.

選択可能なのは、前記で算出した主方向に調整を加えることができ、ノイズの影響を減少させる。より明確に言えば、手の動きには連続性があるため、前後二つのフレームで手の主方向の変化が速すぎるはずはなく、変化が速すぎると、往々にしてノイズの影響が大きくなるため、前記主方向に対して調整を行うことができる。   What can be selected is that the main direction calculated above can be adjusted to reduce the influence of noise. More specifically, because the hand movement is continuous, the main direction of the hand should not change too quickly in the two front and back frames, and if the change is too fast, the effects of noise often increase. Therefore, adjustment can be performed with respect to the main direction.

具体的には、現在、計算する主方向と一つ前のフレームの画像の手の主方向との差異値を確定し、差異値が所定の閾値より大きい場合は、その前の所定画像の手の主方向に基づいて現在、計算する前記主方向に調整を加える。   Specifically, the difference value between the main direction to be calculated and the main direction of the hand of the image of the previous frame is determined, and if the difference value is larger than a predetermined threshold, the hand of the previous predetermined image is determined. The main direction to be calculated is adjusted based on the main direction.

例えば、所定の閾値の取り得る例を90度とする。もちろん、当業者は経験と手の実際の動きに基づいて他の適当な角度を設定してもよい。仮にCurA(CurA.x,CurA.y)とLastA(LastA.x,LastA.y)がそれぞれ現在の手の主方向と一つ前のフレームの主方向を表すとすると、CurA(CurA.x,CurA.y)とLastA(LastA.x,LastA.y)の間の差異が90度より大きい時は、算術平均値、平方根平均値等の各種の適当な方式でCurA(CurA.x,CurA.y)に対して調整を加えることができる。算術平均値を例にすると、下式によりCurA(CurA.x,CurA.y )とLastA(LastA.x,LastA.y)の算術平均値を計算し、それを現在の主方向とすることができる。

Figure 2014235743
For example, an example in which a predetermined threshold can be taken is 90 degrees. Of course, those skilled in the art may set other suitable angles based on experience and actual hand movement. If CurA (CurA.x, CurA.y) and LastA (LastA.x, LastA.y) represent the main direction of the current hand and the main direction of the previous frame, respectively, CurA (CurA.x, When the difference between CurA.y) and LastA (LastA.x, LastA.y) is greater than 90 degrees, CurA (CurA.x, CurA. Adjustments can be made to y). Taking the arithmetic mean as an example, the following formula can be used to calculate the arithmetic mean of CurA (CurA.x, CurA.y) and LastA (LastA.x, LastA.y) and use that as the current main direction: it can.
Figure 2014235743

お分かりのとおり、前の所定のフレーム(例えばmフレーム前の)画像の主方向と現在の主方向の算術平均値を計算して、現在の主方向とすることもできる。   As can be seen, an arithmetic average value of the main direction of the previous predetermined frame (for example, m frames before) and the current main direction can be calculated to obtain the current main direction.

理解しなければならないのは、前記主方向調整プロセスは選択可能なものであり、必須ではないことである。   It should be understood that the main direction adjustment process is optional and not essential.

図2に戻り、ステップS220では、前記主方向に沿って手の先端エッジ点を探す。   Returning to FIG. 2, in step S220, the hand tip edge point is searched for along the main direction.

主方向に沿って比較的容易に手の先端エッジ点を探し出すことができ、例え前記手の候補エリアが不正確であっても(例えば、手が当該手の候補エリア内に無い)、手の先端エッジ点を探し出すことができる。以下、図5と図6の(a)-(d)を参照しながらステップS220の処理について詳細に説明する。   The hand edge point can be found relatively easily along the main direction, even if the hand candidate area is inaccurate (for example, the hand is not in the hand candidate area). The tip edge point can be found. Hereinafter, the process of step S220 will be described in detail with reference to FIGS. 5 and 6A to 6D.

図5に示すように、ステップS2201で、前記主方向に垂直な第一直線を確定し、図6の(a)の記号Bのように示す。この第一直線は前記に提示された手の候補位置点を通ることが好ましく、これにより計算の効率を高めることができる。お分かりのとおり、第一直線が主方向と垂直なのは単なる一例であり、この第一直線は主方向と別の角度を為してもよい。   As shown in FIG. 5, in step S2201, a first straight line perpendicular to the main direction is determined and shown as symbol B in FIG. 6 (a). The first straight line preferably passes through the candidate position point of the hand presented above, thereby improving the calculation efficiency. As can be seen, the first straight line is perpendicular to the main direction is merely an example, and the first straight line may form another angle with the main direction.

その後、ステップS2202で、当該第一直線の所定範囲内の幾つかの所定の点をそれぞれ始点として、前記主方向に沿って伸ばした幾つかの直線の各直線上で、前記先端エッジ点を見つける。   Thereafter, in step S2202, the leading edge point is found on each straight line of several straight lines extending along the main direction, starting from several predetermined points within a predetermined range of the first straight line.

手の先端エッジ点は多くあり、例えば、図6の(b)に示す主方向に沿って伸ばした幾つかの直線上で、全て先端エッジ点を探し出すことができる。前記所定範囲はユーザーが経験により設定することができ、その目的はその上で先端エッジ点を見つけることのできる直線(例えば図6の(b)に示す直線)をなるべく含ませるようにするためであり、その範囲が大きすぎるということはない。一つの可能な例として、前記所定範囲は、第一直線上で前記候補エリアブロック内に位置する部分でもよい。前記幾つかの所定点は必要に応じて設定してよい。例えば、最終的に確定する手の位置点に比較的高い精度を求める場合は、比較的多数の所定点を選ばなければならず、例えば第一直線の所定範囲内の各画素を始点とし、これらの始点から出発して主方向に沿って伸ばした各直線上に先端エッジ点を見つけ、精度要求が比較的低ければ、比較的少ない所定点を選び、例えば一定の間隔を空けて前記所定範囲内の各画素から始点を選ぶことができる。   There are many leading edge points of the hand. For example, all leading edge points can be found on several straight lines extending along the main direction shown in FIG. The predetermined range can be set by the user based on experience, and the purpose thereof is to include as much as possible a straight line (for example, a straight line shown in FIG. 6B) on which the tip edge point can be found. Yes, the range is not too large. As one possible example, the predetermined range may be a portion located in the candidate area block on a first straight line. The some predetermined points may be set as necessary. For example, when relatively high accuracy is required for the position point of the hand to be finally determined, a relatively large number of predetermined points must be selected. For example, each pixel within a predetermined range of the first straight line is used as a starting point, and Find the tip edge point on each straight line starting from the start point and extending along the main direction, and if the accuracy requirement is relatively low, select a relatively small number of predetermined points, for example, within a certain range with a certain interval. A starting point can be selected from each pixel.

主方向に伸ばした前記各直線上で、この直線上の各画素深度値の変化の傾斜によって可能な先端エッジ点を選ぶことができる。具体的には、手の上の隣り合う二つの画素の深度変化は大きくないはずであり、もし深度変化がかなり大きければ、この二つの画素の内の一つは手の上にあるが、他の一つは手の上にない(例えば背景画像上にある)と認識することができる。このため、本実施例では、主方向に沿った前記各直線に対して、始点から順次、この直線上の隣接する二つの画素間の深度値差異を計算し、ある二つの隣接画素の深度値差異が所定の閾値より大きければ、この二つの隣接画素のうち始点に近い方の画素を先端エッジ点とする。この中で、所定閾値は当業者が経験により設定することができる。   On each of the straight lines extending in the main direction, a possible leading edge point can be selected by the inclination of the change in the pixel depth value on the straight line. Specifically, the change in depth of two adjacent pixels on the hand should not be large, and if the change in depth is quite large, one of the two pixels is on the hand but the other Can be recognized as not on the hand (for example, on the background image). For this reason, in this embodiment, for each of the straight lines along the main direction, the depth value difference between two adjacent pixels on the straight line is calculated sequentially from the start point, and the depth values of two adjacent pixels are calculated. If the difference is larger than a predetermined threshold value, a pixel closer to the start point of the two adjacent pixels is set as a leading edge point. Among these, the predetermined threshold can be set by a person skilled in the art based on experience.

以下、図6の(c)を参照しながらこれを説明する。例えば、直線Cについて、仮にM0を始点とすると、最初に隣接する画素M1とM0の深度値差異を計算し、もしその差異が所定閾値より小さければ、この画素M1はなお手の上にあると考えられるので、探索を継続する必要がある。その後、画素M2とM1の深度値差異を計算し、もしその差異が所定閾値より小さければ、この画素M2はなお手の上にあると考えられるので、探索を継続する必要がある。この方法に従って探索を続け、深度値差異が閾値より大きい一対の隣接画素Mi-1とMiを見つけるまで行う。この時、画素Mi-1は手の上に位置し、画素Miは手の上にない、つまり、この二つの画素のうち始点M0に近い画素Mi-1が手の先端エッジ点となる。直線ごとに、第一直線上の所定点を始点とし、主方向に沿って伸ばした直線上の探索を行うことによって、先端エッジ点となり得る全ての点を見つけることができ、図6の(d)に示すとおりである。 Hereinafter, this will be described with reference to FIG. For example, assuming that M 0 is the starting point for straight line C, the depth value difference between adjacent pixels M 1 and M 0 is calculated first. If the difference is smaller than a predetermined threshold, this pixel M 1 is still Because it is considered to be above, it is necessary to continue the search. Thereafter, the depth value difference between the pixels M 2 and M 1 is calculated, and if the difference is less than a predetermined threshold, the pixel M 2 is still considered to be on the hand and the search needs to be continued. The search is continued according to this method until a pair of adjacent pixels M i−1 and M i whose depth value difference is larger than the threshold is found. At this time, the pixel M i-1 is located on the hand and the pixel M i is not on the hand, that is, the pixel M i-1 near the start point M 0 is the tip edge point of the hand. It becomes. For each straight line, by performing a search on a straight line starting from a predetermined point on the first straight line and extending along the main direction, all the points that can be the tip edge point can be found, and (d in FIG. 6 ).

選択可能なのは、探索した先端エッジ点となり得る各点に篩い分けを行い、ノイズの影響を減少させる。より明確に言えば、ノイズの影響で、前記処理により見つけた先端エッジ点の幾つかは真正の手の先端エッジ点ではないため、下式により除去することができる。

Figure 2014235743
The selection can be made by sieving each point that can be the leading edge point to reduce the influence of noise. More specifically, because of the influence of noise, some of the leading edge points found by the above processing are not genuine leading edge points, and therefore can be removed by the following equation.
Figure 2014235743

この中で、edgepointは見つけた、まだ篩い分けしていない先端エッジ点を表し、centerpointとhandRadiusはそれぞれ一つ前のフレーム中で追跡した手の位置点と候補エリアブロックの半径を表し、dis(edgepoint,centerpoint)はedgepointとcenterpoint間の空間距離を表し、aとbは共に常数で、当業者が人体の手足の比率に基づいて経験により設定することができる。見つけた先端エッジ点と一つ前のフレームの手の位置点間の空間距離が公式(6)を満たしていない時は、この先端エッジ点をノイズエッジ点として、除去することができる。   In this, edgepoint represents the tip edge point that has been found but has not been sifted, centerpoint and handRadius represent the position point of the hand tracked in the previous frame and the radius of the candidate area block, and dis ( edgepoint, centerpoint) represents the spatial distance between edgepoint and centerpoint, and a and b are both constants, and those skilled in the art can set by experience based on the ratio of human limbs. When the spatial distance between the found leading edge point and the position point of the hand of the previous frame does not satisfy the formula (6), the leading edge point can be removed as a noise edge point.

理解しなければならないのは、前記先端エッジ点の篩い分けプロセスは選択可能なものであり、必須のものではないことである。   It should be understood that the tip edge point sieving process is optional and not essential.

再び図2に戻り、ステップS230では、前記各先端エッジ点に基づいて手の位置点を確定する。以下、図7を参照しながらステップS230の処理を説明する。   Returning to FIG. 2 again, in step S230, the position point of the hand is determined based on each tip edge point. Hereinafter, the process of step S230 will be described with reference to FIG.

図7に示すように、ステップS2301で、前記各先端エッジ点の平均値位置点を計算する。具体的には、算術平均値、平方根平均値、幾何平均値、加重平均値等の各種の方式により前記各先端エッジ点の平均値位置点を計算する。例えば、算術平均値を例にとると、下式により先端エッジ点の平均値位置点を計算することができる。

Figure 2014235743
As shown in FIG. 7, in step S2301, the average value position point of each tip edge point is calculated. Specifically, the average value position point of each tip edge point is calculated by various methods such as an arithmetic average value, a square root average value, a geometric average value, and a weighted average value. For example, taking the arithmetic average value as an example, the average value position point of the leading edge point can be calculated by the following equation.
Figure 2014235743

この中で、nは先端エッジ点の個数、edgepointi.xは第i個目の先端エッジ点のX軸座標、edgepointi.yは第i個目の先端エッジ点のy軸座標、(Cx,Cy )は平均値位置点の座標とする。 Where n is the number of tip edge points, edgepoint i .x is the X-axis coordinate of the i-th tip edge point, edgepoint i .y is the y-axis coordinate of the i-th tip edge point, (Cx , Cy) is the coordinates of the average position point.

その後、ステップS2302で、当該平均値位置点と前述の主方向に基づいて、手の位置点を確定する。   Thereafter, in step S2302, a hand position point is determined based on the average value position point and the main direction described above.

平均値位置点を確定した後、各種の適当な方法により手の位置点を計算することができる。手の位置点が平均値位置点に向かう連結線は手の主方向におおよそ沿っているはずであることを考慮して、本実施例では平均値位置点を始点として、主方向とは反対の方向に沿って、手の位置点を確定し、下式に示すとおりである。

Figure 2014235743
After determining the average position point, the hand position point can be calculated by various suitable methods. In consideration of the fact that the connecting line from the hand position point to the average value position point should be approximately along the main direction of the hand, in this embodiment, the average value position point is the starting point and the opposite of the main direction. A hand position point is determined along the direction, as shown in the following equation.
Figure 2014235743

この中で、(handPx,handPy)は現在の手の位置点座標、handRadiusは候補エリアブロックの半径、(Ax,Ay)は手の主方向であり、cは常数とし、それは当業者が手足の比率に基づいて経験により設定することができる。   Where (handPx, handPy) is the coordinates of the current hand position point, handRadius is the radius of the candidate area block, (Ax, Ay) is the main direction of the hand, c is a constant, It can be set by experience based on the ratio.

これにより、現在の手の位置を確定する。選択可能なのは、手の運動軌跡の履歴、面積の広さ、形状等の情報を利用して当該位置の正確性を検出してもよい。現在の手の位置が正確であることを確定する時は、手の位置点に基づいて手の現在の運動速度、手の現在の運動加速度、手の面積、位置点の深度値等のうち少なくとも一つを計算することができ(その計算方法は本分野では公知であり、ここで贅言を弄しない)、後に来るフレーム中の手の位置を確定するのに用いることによって、手の追跡を実現することができる。   Thereby, the current position of the hand is determined. It is also possible to detect the accuracy of the position using information such as the history of the movement trajectory of the hand, the area size, and the shape. When determining that the current hand position is accurate, at least one of the current movement speed of the hand, the current movement acceleration of the hand, the area of the hand, the depth value of the position point, etc. One can be calculated (the method of calculation is well known in the art and does not tamper with the luxury here) and can be used to determine the position of the hand in the frame that follows to achieve hand tracking can do.

以上、本発明実施例による深度画像に基づく手の位置確定方法を説明した。この方法では、主方向を利用して手の先端エッジ点を見つけ、先端エッジ点に基づいて手の実際の位置を確定する。この方法に従って、例え手が予測した手の候補エリア内になくても(例えば手の候補エリアが誤って腕に定められる)、手の先端エッジ点を見つけ出すことができるので、良好な適応性を有している。その他、当該方法では手の形状情報を使わないので、多種の手の形状に適しており、形態変化が多いという手の特徴を満たしている。この他、当該方法は深度図により位置を確定するので、光線の影響を受けることが少ない。   The hand position determination method based on the depth image according to the embodiment of the present invention has been described above. In this method, the leading edge point of the hand is found using the main direction, and the actual position of the hand is determined based on the leading edge point. According to this method, even if the hand is not in the predicted hand candidate area (for example, the hand candidate area is mistakenly set on the arm), the hand edge point can be found, and thus good adaptability can be obtained. Have. In addition, since the method does not use hand shape information, the method is suitable for various hand shapes and satisfies the feature of the hand that there are many morphological changes. In addition, since the position is determined by the depth map, the method is less affected by light rays.

指摘に値することは、実際に、本発明実施例による深度画像に基づく手の位置確定方法は手指の位置検出にも用いることができ、特に手指が互いに離れている場合に、この方法はかなり良い効果が得られる。具体的には、手指が互いに離れている時、本発明実施例による手の位置確定方法のステップS210とS220の応用によって、各々の手指の先端エッジ点と隣接する手指の連接点(例えば、手指の分岐点)を検出することができる。続いて、適当な閾値を設定し、隣接する手指の連接点を篩い分けすることができる。その後、各手指の幾つかの先端エッジ点に対して、平均値位置点を計算し、この手指の位置とすることができる。   It is worth pointing out that the method for determining the position of the hand based on the depth image according to the embodiment of the present invention can also be used for detecting the position of the finger, especially when the fingers are separated from each other. An effect is obtained. Specifically, when the fingers are separated from each other, the application of steps S210 and S220 of the method for determining the position of the hand according to the embodiment of the present invention may cause a continuous contact point (for example, a finger) Branch point) can be detected. Subsequently, an appropriate threshold value can be set, and the continuous contacts of adjacent fingers can be screened. Thereafter, an average value position point is calculated for several tip edge points of each finger, and this finger position can be obtained.

以下、図8を参照しながら本発明実施例による深度画像に基づく手の位置確定設備を説明する。   Hereinafter, the hand position determining equipment based on the depth image according to the embodiment of the present invention will be described with reference to FIG.

図8は本発明実施例による深度画像に基づく手の位置確定設備800の機能配置ブロック図を示す。   FIG. 8 shows a functional arrangement block diagram of the hand position fixing equipment 800 based on the depth image according to the embodiment of the present invention.

図8に示すように、手の位置確定設備800は、深度画像に基づいて予測した手の候補エリアの主方向を確定するのに用いる主方向確定装置810、前記主方向に沿って手の先端エッジ点を探すのに用いるエッジ点探索装置820、そして前記各先端エッジ点に基づいて手の位置点を確定するのに用いる位置点確定装置830を含む。   As shown in FIG. 8, the hand position determination device 800 is a main direction determination device 810 used to determine the main direction of the candidate area of the hand predicted based on the depth image, the tip of the hand along the main direction. An edge point searching device 820 used for searching for an edge point, and a position point determining device 830 used for determining a hand position point based on each of the leading edge points are included.

また、手の位置確定設備800は、前処理装置(図示せず)及び後処理装置(図示せず)を更に含み、前処理装置は、履歴情報に基づいて手の候補位置点を予測し、手の候補位置点と深度値情報履歴に基づいて候補エリアブロックを確定し、及び、候補エリアブロックから候補エリアを分割するために用いられる。後処理装置は、確定された手の位置点に基づいて、手の現在の運動速度、手の現在の運動加速度、手の面積、前記位置点の深度値のうち少なくとも一つを確定するために用いられる。   The hand position determination facility 800 further includes a pre-processing device (not shown) and a post-processing device (not shown), and the pre-processing device predicts a candidate position point of the hand based on the history information, The candidate area block is determined based on the hand candidate position point and the depth value information history, and is used to divide the candidate area from the candidate area block. The post-processing device is configured to determine at least one of the current movement speed of the hand, the current movement acceleration of the hand, the area of the hand, and the depth value of the position point based on the determined hand position point. Used.

前述の主方向確定装置810、エッジ点探索装置820、そして位置点確定装置830並びに前処理装置及び後処理装置の具体的機能と操作は前述の図1から図7までの関連説明を参照することができ、ここでは重ねて説明をしない。   For specific functions and operations of the main direction determining device 810, the edge point searching device 820, the position point determining device 830, the pre-processing device, and the post-processing device, refer to the related description from FIG. 1 to FIG. I won't repeat the explanation here.

以下、図9を参照して本発明実施例による深度画像に基づく手の位置確定システム900の全体ハードウェアブロック図を説明する。図9に示すように、手の位置確定システム900は、外部から、カメラで撮影した左画像と右画像、カメラのパラメータ、深度画像、手の以前の運動パラメータ等の関係画像や情報を入力するのに用い、例えばキーボード、マウス、カメラ等々が該当する入力設備910;前述の本発明実施例による深度画像に基づく手の位置確定方法又は前述の手の位置確定装置の実施に用い、例えばコンピュータの中央処理器ないし処理能力を有する他のICチップ等々が該当する処理設備920;外部に向け、確定した位置点座標、手の運動軌跡等々、前述の手の位置確定を実施する過程で得られた結果を出力するのに用い、例えばモニター、プリンター等々が該当する出力設備930;そして揮発性、非揮発性方式で前述の手の位置確定過程に関係した、例えば深度画像、運動履歴情報、手の現在の位置点、現在の運動速度、現在の位置点の深度値等のデータを保存するのに用い、例えばランダムアクセスメモリー(RAM)、読み取り専用メモリー(ROM)、ハードディスクないし半導体メモリー等々の各種揮発性、非揮発性メモリーが該当する記憶設備940を含む。   Hereinafter, an overall hardware block diagram of a hand position determination system 900 based on a depth image according to an embodiment of the present invention will be described with reference to FIG. As shown in FIG. 9, the hand position determination system 900 inputs externally related images and information such as left and right images taken by the camera, camera parameters, depth images, and previous motion parameters of the hand. For example, an input device 910 corresponding to a keyboard, a mouse, a camera, etc .; used for the implementation of the hand position determination method based on the depth image according to the above-described embodiment of the present invention or the above-described hand position determination apparatus; Central processing unit or other IC chip with processing capability, etc., applicable processing equipment 920; obtained in the process of performing the above-mentioned hand position determination, such as the determined position point coordinates, hand movement trajectory, etc. Used to output the results, eg output equipment 930 applicable to monitors, printers, etc .; and related to the above-mentioned hand position determination process in a volatile and non-volatile manner, eg depth images, Used to store data such as movement history information, current position point of hand, current movement speed, depth value of current position point, eg random access memory (RAM), read only memory (ROM), hard disk or A storage facility 940 corresponding to various volatile and non-volatile memories such as a semiconductor memory is included.

以上、具体的な実施例と結び付けて本発明の基本原理を説明したが、指摘する必要があることは、当業者であれば、本発明の方法及び装置の全部あるいは如何なるステップあるいは部材も理解することができ、如何なるコンピュータ(処理器、メモリー媒体等を含む)あるいはコンピューター・ネットワークの中で、ハードウェア、ファームウェア、ソフトウェアあるいはそれらの組合せによって実現できることであり、これは当業者が本発明の説明を読んだ状況においては彼らの基本的なコンピュータープログラミング技能を用いて実現できることである。   While the basic principles of the present invention have been described in connection with specific embodiments, it should be pointed out that those skilled in the art will understand all or any of the steps and components of the method and apparatus of the present invention. Can be implemented in any computer (including processors, memory media, etc.) or computer network by hardware, firmware, software, or combinations thereof, which will be described by those skilled in the art to explain the present invention. In the situation you read, you can do it using their basic computer programming skills.

このため、本発明の目的は如何なるコンピュータ上でも1つのあるいは一組のコンピュータープログラムを使うことにより実現できる。前述のコンピュータは通用している公知の装置でよい。このため、本発明の目的は前述の方法あるいは装置を実現するプログラムコードを含むプログラム製品を提供するだけで実現する。つまり、このようなプログラム製品も本発明を構成しており、このようなプログラム製品をもつ記憶媒体も本発明を構成している。当然のことながら、前記記憶媒体は公知の如何なる記憶媒体あるいは将来開発される如何なる記憶媒体であってもよい。   For this reason, the object of the present invention can be realized by using one or a set of computer programs on any computer. The above-mentioned computer may be a known publicly known device. For this reason, the object of the present invention is realized only by providing a program product including a program code for realizing the above-described method or apparatus. That is, such a program product also constitutes the present invention, and a storage medium having such a program product also constitutes the present invention. Of course, the storage medium may be any known storage medium or any storage medium developed in the future.

更に指摘すべきことは、本発明の装置と方法においては、当然のことながら、各部材あるいは各ステップは分解及び/または新たな組み合わせができることである。これらの分解及び/または新たな組み合わせは本発明と同等の効果を有する方案と見做されるべきである。かつ、前述の一連の処理ステップの実行は当然、説明の順序に従い時間順に行うことができるが、必ずしも時間順に行う必要はない。あるステップは平行してあるいは互いに独立して行うことができる。   It should be further pointed out that, in the apparatus and method of the present invention, it is understood that each member or each step can be disassembled and / or newly combined. These decompositions and / or new combinations should be regarded as a method having an effect equivalent to that of the present invention. In addition, the above-described series of processing steps can be performed in chronological order according to the description order, but is not necessarily performed in chronological order. Certain steps can be performed in parallel or independently of each other.

前述の発明を実施するための形態は、本発明の保護範囲の制限となるものではない。当業者にとって明白なことは、設計要求及び他の要素によって、色々な修正、組合せ、副次的組合せ及び代替が生じ得ることである。本発明の精神及び原則中の如何なる修正、同等の入替え及び改善等は、全て本発明の保護範囲に含まれなければならない。

The form for carrying out the above-mentioned invention does not become the restriction | limiting of the protection scope of this invention. It will be apparent to those skilled in the art that various modifications, combinations, sub-combinations and alternatives may occur depending on design requirements and other factors. Any amendments, equivalent replacements and improvements in the spirit and principle of the present invention shall all be included in the protection scope of the present invention.

Claims (18)

深度画像に基づく手の位置確定方法であって、
前記深度画像に基づいて取得した前記手の候補エリアの主方向を確定し、
前記主方向に沿って前記手の先端エッジ点を探し、及び
前記各先端エッジ点に基づいて前記手の位置点を確定することを含む、手の位置確定方法。
A hand position determination method based on a depth image,
Determine the main direction of the candidate area of the hand acquired based on the depth image,
A method for determining a hand position, comprising: searching for a tip edge point of the hand along the main direction; and determining the hand position point based on each tip edge point.
履歴情報に基づいて前記手の候補位置点を予測し、
前記候補位置点と深度値情報履歴に基づいて候補エリアブロックを確定し、及び
前記候補エリアブロックから前記候補エリアを分割することを更に含む、請求項1に記載の手の位置確定方法。
Predicting the candidate position point of the hand based on history information;
The hand position determining method according to claim 1, further comprising: determining a candidate area block based on the candidate position point and depth value information history; and dividing the candidate area from the candidate area block.
前記深度画像に基づいて取得した前記手の候補エリアの主方向を確定することは、
前記手の候補エリアの主方向を計算し、
前記主方向と一つ前のフレームの画像の前記手の主方向との差異値を確定し、及び
前記差異値が所定の閾値より大きい場合は、その前の所定フレームの画像の前記手の主方向に基づいて前記候補エリアの主方向に調整を加えることを含む、請求項1又は2に記載の手の位置確定方法。
Determining the main direction of the candidate area of the hand acquired based on the depth image is
Calculate the main direction of the candidate area of the hand,
A difference value between the main direction and the main direction of the hand of the image of the previous frame is determined, and when the difference value is larger than a predetermined threshold, the main of the hand of the image of the previous frame is determined. 3. The method of determining a position of a hand according to claim 1, comprising adjusting the main direction of the candidate area based on a direction.
前記主方向に沿って前記手の先端エッジ点を探すことは、
前記主方向に垂直な第一直線を確定し、及び
前記第一直線の所定範囲内の幾つかの所定の点をそれぞれ始点として、前記主方向に沿って伸ばした幾つかの直線の各直線上で、前記先端エッジ点を見つけることを含む、請求項2に記載の手の位置確定方法。
Looking for the tip edge point of the hand along the main direction,
A first straight line perpendicular to the main direction is determined, and on each straight line of several straight lines extending along the main direction, starting from several predetermined points within a predetermined range of the first straight line, respectively. The method of claim 2, comprising finding the tip edge point.
前記第一直線が前記候補位置点を通り、前記所定範囲を前記第一直線上で前記候補エリアブロック内に位置する部分とする、請求項4に記載の手の位置確定方法。   5. The hand position determining method according to claim 4, wherein the first straight line passes through the candidate position point, and the predetermined range is a portion located in the candidate area block on the first straight line. 前記主方向に沿って前記先端エッジ点を探すことは、
前記始点から、当該直線上の隣接する各二つの画素間の深度値差異を計算し、前記深度値差異が所定閾値より大きい二つの隣接画素のうち前記始点から近い方の画素を先端エッジ点とすることを含む、請求項4又は5に記載の手の位置確定方法。
Looking for the tip edge point along the main direction is
A depth value difference between two adjacent pixels on the straight line is calculated from the start point, and a pixel closer to the start point among two adjacent pixels having the depth value difference larger than a predetermined threshold is defined as a leading edge point. The method for determining the position of a hand according to claim 4 or 5, comprising:
前記主方向に沿って前記先端エッジ点を探すことは、
前記先端エッジ点と一つ前のフレームの画像の位置点との間の空間距離を計算し、当該空間距離が所定閾値の範囲を超えている場合は、前記先端エッジ点をノイズエッジ点とすることを含む、請求項6に記載の手の位置確定方法。
Looking for the tip edge point along the main direction is
A spatial distance between the front edge point and the position point of the image of the previous frame is calculated, and when the spatial distance exceeds a predetermined threshold range, the front edge point is set as a noise edge point. The method for determining a position of a hand according to claim 6, further comprising:
前記各先端エッジ点に基づいて前記手の位置点を確定することは、
前記各先端エッジ点の平均値位置点を計算し、及び
前記平均値位置点と前記主方向に基づいて、前記手の位置点を確定することを含む、請求項1又は2に記載の手の位置確定方法。
Determining the hand position point based on each tip edge point,
3. The hand according to claim 1, further comprising: calculating an average value position point of each tip edge point; and determining the hand position point based on the average value position point and the main direction. Position determination method.
前記手の位置点に基づいて、前記手の現在の運動速度、前記手の現在の運動加速度、前記手の面積、前記位置点の深度値のうち少なくとも一つを確定することをさらに含む、請求項1に記載の手の位置確定方法。   The method further comprises determining at least one of a current movement speed of the hand, a current movement acceleration of the hand, an area of the hand, and a depth value of the position point based on the hand position point. Item 1. The method for determining the position of the hand according to Item 1. 深度画像に基づく手の位置確定設備であって、
前記深度画像に基づいて予測した前記手の候補エリアの主方向を確定するのに用いる主方向確定装置、
前記主方向に沿って前記手の先端エッジ点を探すのに用いるエッジ点探索装置、及び
前記各先端エッジ点に基づいて前記手の位置点を確定するのに用いる位置点確定装置を含む、手の位置確定設備。
A hand positioning device based on depth images,
A main direction determining device used to determine the main direction of the candidate area of the hand predicted based on the depth image;
An edge point search device used for searching for the leading edge point of the hand along the main direction, and a position point determination device used for determining the position point of the hand based on each leading edge point; Location fixing equipment.
履歴情報に基づいて前記手の候補位置点を予測し、
前記候補位置点と深度値情報履歴に基づいて候補エリアブロックを確定し、及び
前記候補エリアブロックから前記候補エリアを分割する前処理装置を更に含む、請求項10に記載の手の位置確定設備。
Predicting the candidate position point of the hand based on history information;
11. The hand position determining facility according to claim 10, further comprising a pre-processing device that determines a candidate area block based on the candidate position point and depth value information history, and divides the candidate area from the candidate area block.
前記主方向確定装置は、
前記手の候補エリアの主方向を計算し、
前記主方向と一つ前のフレームの画像の前記手の主方向との差異値を確定し、及び
前記差異値が所定の閾値より大きい場合は、その前の所定フレームの画像の前記手の主方向に基づいて前記候補エリアの主方向に調整を加える、請求項10又は11に記載の手の位置確定設備。
The main direction determining device is:
Calculate the main direction of the candidate area of the hand,
A difference value between the main direction and the main direction of the hand of the image of the previous frame is determined, and when the difference value is larger than a predetermined threshold, the main of the hand of the image of the previous frame is determined. 12. The hand positioning apparatus according to claim 10 or 11, wherein adjustment is made to a main direction of the candidate area based on a direction.
前記エッジ点探索装置は、
前記主方向に垂直な第一直線を確定し、及び
前記第一直線の所定範囲内の幾つかの所定の点をそれぞれ始点として、前記主方向に沿って伸ばした幾つかの直線の各直線上で、前記先端エッジ点を見つけることを含む、請求項11に記載の手の位置確定設備。
The edge point search device comprises:
A first straight line perpendicular to the main direction is determined, and on each straight line of several straight lines extending along the main direction, starting from several predetermined points within a predetermined range of the first straight line, respectively. 12. The hand location facility of claim 11, comprising finding the tip edge point.
前記第一直線が前記候補位置点を通り、前記所定範囲を前記第一直線上で前記候補エリアブロック内に位置する部分とする、請求項13に記載の手の位置確定設備。   14. The hand position determining facility according to claim 13, wherein the first straight line passes through the candidate position point, and the predetermined range is a portion located in the candidate area block on the first straight line. 前記エッジ点探索装置は、
前記始点から、当該直線上の隣接する各二つの画素間の深度値差異を計算し、前記深度値差異が所定閾値より大きい二つの隣接画素のうち前記始点から近い方の画素を先端エッジ点とすることを含む、請求項13又は14に記載の手の位置確定設備。
The edge point search device comprises:
A depth value difference between two adjacent pixels on the straight line is calculated from the start point, and a pixel closer to the start point among two adjacent pixels having the depth value difference larger than a predetermined threshold is defined as a leading edge point. 15. The hand positioning facility according to claim 13 or 14, comprising:
前記エッジ点探索装置は、
前記先端エッジ点と一つ前のフレームの画像の位置点との間の空間距離を計算し、当該空間距離が所定閾値の範囲を超えている場合は、前記先端エッジ点をノイズエッジ点とすることを含む、請求項15に記載の手の位置確定設備。
The edge point search device comprises:
A spatial distance between the front edge point and the position point of the image of the previous frame is calculated, and when the spatial distance exceeds a predetermined threshold range, the front edge point is set as a noise edge point. 16. The hand location facility of claim 15 comprising:
前記位置点確定装置は、
前記各先端エッジ点の平均値位置点を計算し、及び
前記平均値位置点と前記主方向に基づいて、前記手の位置点を確定することを含む、請求項10又は11に記載の手の位置確定設備。
The position point determination device includes:
12. The hand according to claim 10 or 11, comprising calculating an average value position point of each tip edge point, and determining the hand position point based on the average value position point and the main direction. Positioning equipment.
前記手の位置点に基づいて、前記手の現在の運動速度、前記手の現在の運動加速度、前記手の面積、前記位置点の深度値のうち少なくとも一つを確定する後処理装置をさらに含む、請求項10に記載の手の位置確定設備。

And a post-processing device for determining at least one of the current movement speed of the hand, the current movement acceleration of the hand, the area of the hand, and the depth value of the position point based on the position point of the hand. The hand positioning apparatus according to claim 10.

JP2014108917A 2013-06-03 2014-05-27 Hand position determination method and device based on depth image Expired - Fee Related JP6454984B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201310217305.3 2013-06-03
CN201310217305.3A CN104217192B (en) 2013-06-03 2013-06-03 Hand localization method and equipment based on depth image

Publications (2)

Publication Number Publication Date
JP2014235743A true JP2014235743A (en) 2014-12-15
JP6454984B2 JP6454984B2 (en) 2019-01-23

Family

ID=52098660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014108917A Expired - Fee Related JP6454984B2 (en) 2013-06-03 2014-05-27 Hand position determination method and device based on depth image

Country Status (2)

Country Link
JP (1) JP6454984B2 (en)
CN (1) CN104217192B (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107958458A (en) * 2016-10-17 2018-04-24 京东方科技集团股份有限公司 Image partition method, image segmentation system and include its equipment
CN111274852A (en) * 2018-12-05 2020-06-12 北京猎户星空科技有限公司 Target object key point detection method and device
CN115981482A (en) * 2023-03-17 2023-04-18 深圳市魔样科技有限公司 Gesture visual interaction method and system for intelligent ring

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105701806B (en) * 2016-01-11 2018-08-03 上海交通大学 Parkinson's tremor motion feature detection method based on depth image and system
CN107292904B (en) * 2016-03-31 2018-06-15 北京市商汤科技开发有限公司 A kind of palm tracking and system based on depth image
CN107357414B (en) * 2016-05-09 2020-01-14 株式会社理光 Click action recognition method and device
CN107730534B (en) * 2016-08-09 2020-10-23 深圳光启合众科技有限公司 Target object tracking method and device
CN107818584B (en) * 2017-09-27 2020-03-17 歌尔科技有限公司 Method and device for determining finger position information of user, projector and projection system
CN115376167B (en) * 2022-10-26 2023-02-24 山东圣点世纪科技有限公司 Palm detection method and system under complex background

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004348522A (en) * 2003-05-23 2004-12-09 Nippon Telegr & Teleph Corp <Ntt> Detection method of palm-shape authentication reference point, and palm-shape authentication reference point detection device, program, and recording medium
JP2007148663A (en) * 2005-11-25 2007-06-14 Sony Corp Object-tracking device, object-tracking method, and program
WO2011007204A1 (en) * 2009-07-16 2011-01-20 Ondo Inc. Control method of a graphic interface
JP2012059271A (en) * 2010-09-13 2012-03-22 Ricoh Co Ltd Human-computer interaction system, hand and hand instruction point positioning method, and finger gesture determination method
JP2013037499A (en) * 2011-08-05 2013-02-21 Toshiba Corp Gesture recognition device, gesture recognition method, and gesture recognition program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004107266A1 (en) * 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data
CN102789568B (en) * 2012-07-13 2015-03-25 浙江捷尚视觉科技股份有限公司 Gesture identification method based on depth information
CN102982557B (en) * 2012-11-06 2015-03-25 桂林电子科技大学 Method for processing space hand signal gesture command based on depth camera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004348522A (en) * 2003-05-23 2004-12-09 Nippon Telegr & Teleph Corp <Ntt> Detection method of palm-shape authentication reference point, and palm-shape authentication reference point detection device, program, and recording medium
JP2007148663A (en) * 2005-11-25 2007-06-14 Sony Corp Object-tracking device, object-tracking method, and program
WO2011007204A1 (en) * 2009-07-16 2011-01-20 Ondo Inc. Control method of a graphic interface
JP2012059271A (en) * 2010-09-13 2012-03-22 Ricoh Co Ltd Human-computer interaction system, hand and hand instruction point positioning method, and finger gesture determination method
JP2013037499A (en) * 2011-08-05 2013-02-21 Toshiba Corp Gesture recognition device, gesture recognition method, and gesture recognition program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107958458A (en) * 2016-10-17 2018-04-24 京东方科技集团股份有限公司 Image partition method, image segmentation system and include its equipment
US10650523B2 (en) 2016-10-17 2020-05-12 Boe Technology Group Co., Ltd. Image segmentation method, image segmentation system and storage medium and apparatus including the same
CN107958458B (en) * 2016-10-17 2021-01-22 京东方科技集团股份有限公司 Image segmentation method, image segmentation system and equipment comprising image segmentation system
CN111274852A (en) * 2018-12-05 2020-06-12 北京猎户星空科技有限公司 Target object key point detection method and device
CN111274852B (en) * 2018-12-05 2023-10-31 北京猎户星空科技有限公司 Target object key point detection method and device
CN115981482A (en) * 2023-03-17 2023-04-18 深圳市魔样科技有限公司 Gesture visual interaction method and system for intelligent ring

Also Published As

Publication number Publication date
CN104217192A (en) 2014-12-17
JP6454984B2 (en) 2019-01-23
CN104217192B (en) 2018-04-17

Similar Documents

Publication Publication Date Title
JP6454984B2 (en) Hand position determination method and device based on depth image
US9330307B2 (en) Learning based estimation of hand and finger pose
US9672634B2 (en) System and a method for tracking objects
WO2021036373A1 (en) Target tracking method and device, and computer readable storage medium
EP2951783B1 (en) Method and system for detecting moving objects
JP2016099982A (en) Behavior recognition device, behaviour learning device, method, and program
WO2019057197A1 (en) Visual tracking method and apparatus for moving target, electronic device and storage medium
Zulkifley et al. Robust hierarchical multiple hypothesis tracker for multiple-object tracking
EP3345123B1 (en) Fast and robust identification of extremities of an object within a scene
KR101681104B1 (en) A multiple object tracking method with partial occlusion handling using salient feature points
Tanke et al. Iterative greedy matching for 3d human pose tracking from multiple views
Park et al. Hand detection and tracking using depth and color information
Laskar et al. Stereo vision-based hand gesture recognition under 3D environment
JP4836065B2 (en) Edge tracking method and computer program therefor
CN107665495B (en) Object tracking method and object tracking device
JP6659095B2 (en) Image processing apparatus, image processing method, and program
Nguyen et al. 3d pedestrian tracking using local structure constraints
KR100994366B1 (en) Method for tracking a movement of a moving target of image tracking apparatus
US11875518B2 (en) Object feature extraction device, object feature extraction method, and non-transitory computer-readable medium
Shal’nov et al. Estimation of the people position in the world coordinate system for video surveillance
Bhuvaneswari et al. TRACKING MANUALLY SELECTED OBJECT IN VIDEOS USING COLOR HISTOGRAM MATCHING.
JP2021047538A (en) Image processing device, image processing method, and program
Ruz et al. Visual recognition to access and analyze people density and flow patterns in indoor environments
Starkov et al. Moving Object Detection in Video Streams Received from a Moving Camera.
Kerdvibulvech Hybrid model of human hand motion for cybernetics application

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181203

R151 Written notification of patent or utility model registration

Ref document number: 6454984

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees